Filtern
Erscheinungsjahr
- 2019 (125) (entfernen)
Dokumenttyp
- Bachelorarbeit (41)
- Masterarbeit (37)
- Dissertation (31)
- Ausgabe (Heft) zu einer Zeitschrift (9)
- Bericht (3)
- Sonstiges (2)
- Buch (Monographie) (1)
- Habilitation (1)
Schlagworte
- Vorlesungsverzeichnis (3)
- Datenschutz (2)
- Immersion (2)
- Inklusion (2)
- Internet of Things (2)
- Parteienkommunikation (2)
- Weinbau (2)
- 2019 European Parliament Election (1)
- 3D-Scan (1)
- AR (1)
- Agrarlandschaft (1)
- Aluminiumorthophosphat (1)
- Association Rules (1)
- Aufsatzdidaktik (1)
- Augmented Reality (1)
- BPM (1)
- BRDF (1)
- Behinderungen (1)
- Belief change, concept contraction, EL (1)
- Bildung für nachhaltige Entwicklung (1)
- Biodiversität (1)
- Bologna-Prozess (1)
- Boppard (1)
- Bororthophosphat (1)
- Business Process Management Recommender Systems Survey (1)
- Business Process Modeling (1)
- CCRDMT (1)
- Calcium (1)
- Challenges (1)
- Chancengerechtigkeit (1)
- Christusbekenntnis (1)
- Classroom-Management (1)
- Cold Chain (1)
- Comic (1)
- Computergraphik (1)
- Cybersickness (1)
- Data flow analysis (1)
- Datenfluss (1)
- Datenflussanalyse (1)
- Datenflussmodell (1)
- Datenschutz, Datensicherheit, Apps, Informatik im Kontext (1)
- Denkmal (1)
- Densimetric Measurement (1)
- Dichtemessung (1)
- Dredging (1)
- Drucktechnik (1)
- ECSA (1)
- EP Wahl (1)
- EU (1)
- Ebullition (1)
- Echtzeit (1)
- Effectiveness (1)
- Einstellungen und Haltungen zu Inklusion (1)
- Elektronenmikroskopie (1)
- Empfehlungssystem (1)
- Entity Component System Architecture (1)
- Euroskeptizismus (1)
- Evangelium (1)
- Exegese (1)
- Food Transportation System (1)
- Foodstuff (1)
- Fragebogen (1)
- Freeze Coring (1)
- Förderschule (1)
- GRAF1 (1)
- Gas storage capacity (1)
- Gebrauchstauglichkeit (1)
- Gefrierkernverfahren (1)
- Geschichte (1)
- Gonioreflectometer (1)
- Governance (1)
- Graphic novel (1)
- Handsfree editing (1)
- Hochschulpolitik (1)
- Human resources management (1)
- India (1)
- Indien (1)
- Individuelle Computermodelle (1)
- Informatik (1)
- Inhaltsanalyse (1)
- InstaHub (1)
- Integration in der SEK II (1)
- International organization (1)
- Judentum (1)
- Jüdisch (1)
- Kollaborationsplattform (1)
- Kontrollerleben (1)
- Konzeption (1)
- Kryo (1)
- Kunstgeschichte (1)
- Lake Kinneret (1)
- Lehrerbildung (1)
- Lendenwirbelsäule (1)
- Lernklima (1)
- Markusevangelium (1)
- Maschinelles Lernen (1)
- Material point method (1)
- Minimalschnitt (1)
- Missionarin (1)
- Mittelrhein (1)
- Motion Sickness (1)
- Nachhaltigkeit (1)
- Nachhaltigkeitsbericht (1)
- Nanoröhren (1)
- Nassbaggerung (1)
- Natronwasserglas (1)
- Nützlinge (1)
- OPD-SHRM (1)
- Oligomer (1)
- Ordensfrau (1)
- Orientierungsstufe (1)
- Pestizid (1)
- Petrus (1)
- Pflege (1)
- Physiksimulation (1)
- Planspiel 2.0 (1)
- Political Communication (1)
- Politische Steuerung (1)
- Position Based Dynamics (1)
- Primzahl (1)
- Primzahlen (1)
- Probabilistic finite automata (1)
- Proteinstrukturanalyse (1)
- Quantitative Untersuchung (1)
- Raumplanung (1)
- Recommender System (1)
- Recommender Systems, Business Process Modeling, Literature Review (1)
- Reflexionsprozesse (1)
- Reservoir Sedimentation (1)
- Rieselmassen (1)
- Schnee (1)
- Schreibdidaktik (1)
- Schulklima (1)
- Schädlingskontrolle (1)
- Sediment (1)
- Selbstkonzept (1)
- Serigrafie (1)
- Simulation (1)
- Solutions (1)
- Stadt (1)
- Statische Analyse (1)
- Stauseeverlandung (1)
- Sustainability (1)
- Teamteaching (1)
- Templerhaus (1)
- Transformation (1)
- Tundish (1)
- Unterricht (1)
- Unterrichtsforschung (1)
- Unterrichtsmethode (1)
- VR (1)
- Vergleichende Politikwissenschaft (1)
- Virtual Reality (1)
- Virtuelle Realität (1)
- Wahlen zum europäischen Parlament (EU-Wahlen) (1)
- Will Eisner (1)
- Writing Conference (1)
- Zertifikat (1)
- Zifferndarstellung (1)
- agriculture (1)
- beneficial insects (1)
- biocide (1)
- biodiversity (1)
- care (1)
- chironomids (1)
- collaboration plattform (1)
- decision support tool (1)
- ecotoxicity (1)
- environmental risk assessment (1)
- evolution (1)
- fungus resistant grapevine (1)
- groundwater remediation (1)
- hybride App (1)
- leap motion (1)
- long-living systems (1)
- machine learning (1)
- minimal pruning (1)
- missionary (1)
- model-based (1)
- mosquito control (1)
- non-target effects (1)
- nun (1)
- pelzresistente Rebsorten (1)
- periphyton (1)
- pest control (1)
- pesticide (1)
- physics simulation (1)
- prozedural (1)
- punishment goals (1)
- ray tracing (1)
- regulation (1)
- risk assessment (1)
- rtx (1)
- security (1)
- self-concept (1)
- snow (1)
- software engineering (1)
- student misbehavior (1)
- tracking (1)
- uptake (1)
- virtual reality (1)
- viticulture (1)
- vulkan (1)
Institut
- Institut für Computervisualistik (38)
- Institut für Management (15)
- Institut für Wirtschafts- und Verwaltungsinformatik (12)
- Institute for Web Science and Technologies (7)
- Zentrale Einrichtungen (7)
- Fachbereich 7 (5)
- Institut für Softwaretechnik (5)
- Fachbereich 4 (3)
- Fachbereich 8 (3)
- Institut für Grundschulpädagogik (3)
Simulation von Schnee
(2019)
Mit Hilfe von Physiksimulationen lassen sich viele
Naturphänomene auf dem Rechner nachbilden. Ziel ist, eine physikalische
Gegebenheit möglichst korrekt zu berechnen, um daraus Schlüsse für die
reale Welt zu ziehen. Anwendungsgebiete sind beispielsweise die Medizin,
die Industrie, aber auch Spiele oder Filme.
Schnee ist aufgrund seines physikalischen Aufbaus und seinen Eigenschaften
ein sehr komplexes Naturphänomen. Um Schnee zu simulieren, müssen
verschiedene Materialeigenschaften beachtet werden.
Die wichtigste Methode, die sich mit der Simulation von Schnee und seiner
Dynamik befasst, ist die Material-Point-Method. In ihr werden die auf
der Kontinuumsmechanik basierenden Lagrange-Partikel mit einem kartesischen
Gitter vereint. Das Gitter ermöglicht die Kommunikation zwischen
den eigentlich nicht verbunden Schneepartikeln. Zur Berechnung werden
Daten der Partikel auf die Gitterknoten übertragen. Dort werden Berechnungen
mit Informationen über benachbarte Partikel durchgeführt. Die Ergebnisse
werden danach zurück auf die Partikel übertragen.
Durch GPGPU-Techniken lassen sich physikalische Simulationen auf der
Grafikkarte implementieren. Verfahren wie die Material-Point-Method lassen
sich durch diese Techniken gut parallelisieren.
Diese Arbeit geht auf die physikalischen Grundlagen der Material-Point-
Method ein, und implementiert diese mit Hilfe von Compute-Shadern auf
der Grafikkarte. Anschließend werden Performanz und Qualität bewertet.
The development of a game engine is considered a non-trivial problem. [3] The architecture of such simulation software must be able to manage large amounts of simulation objects in real-time while dealing with “crosscutting concerns” [3,p. 36] between subsystems. The use of object oriented paradigms to model simulation objects in class hierarchies has been reported as incompatible with constantly changing demands during game development [2, p. 9], resulting in anti-patterns and eventual, messy refactoring.[13]
Alternative architectures using data oriented paradigms revolving around object composition and aggregation have been proposed as a result. [13, 9, 1, 11]
This thesis describes the development of such an architecture with the explicit goals to be simple, inherently compatible with data oriented design, and to make reasoning about performance characteristics possible. Concepts are formally defined to help analyze the problem and evaluate results. A functional implementation of the architecture is presented together with use cases common to simulation software.
Rieselmassen aus einem mineralischen Füllstoff und einem organischen oder anorganischen Bindersystem kommen als hochtemperaturbeständige Auskleidung in thermisch sehr stark beanspruchten Aggregaten, beispielsweise in der Stahlindustrie, zum Einsatz. Die Komponenten der Rieselmassen werden erst während des Einbringens in das Aggregat vermischt und chemisch oder thermisch gehärtet. Die zur Aushärtung benötigte Zeit ist für die Anwendung der Rieselmassen von entscheidender Bedeutung, da sie ausreichend lang sein muss, um eine vollständige Verarbeitung der Massen zu gewährleisten, gleichzeitig jedoch zu lange Stillstandzeiten der Aggregate zu vermeiden sind. Eine Vorhersage oder Steuerung der Abbindezeiten von Rieselmassen, die für einen optimalen Ablauf des Zustellungsprozesses nötig ist, ist aktuell nur sehr eingeschränkt möglich. Dies liegt zum einen daran, dass bisher geeignete Verfahren zur Prüfung der Härtungsdauer fehlen. Zum anderen ist der sehr komplexe Ablauf der Härtung noch nicht im Detail bekannt und die Wirkung von Einflussfaktoren, wie der Rezeptur der Rieselmassen oder den vorherrschenden Temperaturen, nur unzureichend dokumentiert.
Um einen Beitrag zum Verständnis des Abbindeverhaltens zu leisten, war es das Ziel der vorliegenden Arbeit, zunächst ein geeignetes Verfahren zur zeitabhängigen Prüfung des Härtungsverlaufs von Rieselmassen zu entwickeln. Dies wurde mithilfe der Dynamisch-Mechanischen Analyse realisiert. Darüber hinaus wurde der Härtungsmechanismus in Abhängigkeit von der Temperatur und der Rezeptur anhand einer feuerfesten Rieselmasse mit einem Bindesystem aus Wasserglas und Phosphathärter (AlPO4 und BPO4) durch ergänzende gravimetrische Messungen und der Untersuchung des Lösungsverhalten der Phosphate im Wasserglas-Binder beschrieben. Darauf aufbauend wurde mittels Röntgenbeugungsanalyse, Magnetresonanzspektroskopie und Rasterelektronenmikroskopie untersucht, wie sich die festgestellten Unterschiede im Härtungsverlauf auf die kristalline und amorphe Struktur auswirken. Es konnte gezeigt werden, dass die Härtung mittels der beiden Phosphate zu ver-schiedenartigen Netzwerkstrukturen hinsichtlich der Verknüpfungsdichte führt, die mit unterschiedlichen Abbindegeschwindigkeiten korrelieren. Zusätzlich konnten hieraus Auswirkungen auf ausgewählte Eigenschaften (thermische Längenänderung, temperaturabhängige Phasenentwicklung und -umwandlungen) abgeleitet werden.
Diese Bachelorarbeit beschäftigt sich mit dem Entwurf und der Implementation einer virtuellen Realitätserfahrung. Ziel ist es, zwei Fragen zu beantworten: Ist es möglich, eine immersive virtuelle Anwendung zu erschaffen, die hauptsächlich Impulse und Trigger benutzt, um Angst und Schrecken bei den Benutzern zu erzeugen? Zweitens, ist diese Immersion ausreichend, die Benutzer so zu illusionieren, dass sie die virtuelle Welt für die Reale halten. Zur Erschaffung dieser Erfahrung wurde die Programmierumgebung Unity3D sowie Visual Studios 2017 verwendet. Um festzustellen, ob diese VR-Anwendung tatsächlich immersiv für den Anwender ist, wurde ein Experiment mit sieben Probanden durchgeführt. Nach der Spieltestung wurden die Probanden zu Ihren Erfahrungen mittels eines Fragebogens befragt. Es konnte dadruch gezeigt werden, dass diese Anwendungen Tendenzen zur Immersion aufweisen. Jedoch waren sich die Benutzer der Situation, in der sie sich befanden, stets bewusst. Daraus lässt sich schlussfolgern, dass die Immersion nicht stark genug war, um die Probanden bezüglich der virtuellen und realen Welt zu täuschen.
In dieser Bachelorarbeit geht es um den Einsatz des Wii Balance Boards
in -Realität-Anwendungen. Als Anwendungsbeispiel wird ein Snowboard
Spiel implementiert, in dem der virtuelle Avatar mit den Drucksensoren
des Wii Balance Board gesteuert werden kann. Der Anwender soll mit seiner
Körperbalancierung, spielerisch und intuitiv in der virtuellen Umgebung
manövrieren. Es werden die Immersion und der Einfluss auf Motion-
Sickness beziehungsweise Cybersickness erforscht. Außerdem wird dasWii
Balance Board mit dem Xbox Controller verglichen was die Steuerung betrifft.
Ziel der Arbeit ist es zu evaluieren, ob das Wii Balance Board in
der Lage ist, freies Bewegen in der virtuellen Umgebung zu ermöglichen.
Außerdem soll untersucht werden, welcher der beiden Geräte vorteilhafter
ist. Die Umfrageergebnisse laufen darauf hinaus, dass das Wii Balance
Board einen wesentlich positiveren Einfluss auf die Immersion hat, als der
Controller, trotz der besseren Spielergebnisse. Außerdem hat die Untersuchung
ergeben, dass die Verwendung des Wii Balance Board viel häufiger
für Motion-Sickness und Cybersickness Fälle verantwortlich ist.
Over the past few decades society’s dependence on software systems has grown significantly. These systems are utilized in nearly every matter of life today and often handle sensitive, private data. This situation has turned software security analysis into an essential and widely researched topic in the field of computer science. Researchers in this field tend to make the assumption that the quality of the software systems' code directly affects the possibility for security gaps to arise in it. Because this assumption is based on properties of the code, proving it true would mean that security assessments can be performed on software, even before a certain version of it is released. A study based on this implication has already attempted to mathematically assess the existence of such a correlation, studying it based on quality and security metric calculations. The present study builds upon that study in finding an automatic method for choosing well-fitted software projects as a sample for this correlation analysis and extends the variety of projects considered for the it. In this thesis, the automatic generation of graphical representations both for the correlations between the metrics as well as for their evolution is also introduced. With these improvements, this thesis verifies the results of the previous study with a different and broader project input. It also focuses on analyzing the correlations between the quality and security metrics to real-world vulnerability data metrics. The data is extracted and evaluated from dedicated software vulnerability information sources and serves to represent the existence of proven security weaknesses in the studied software. The study discusses some of the difficulties that arise when trying to gather such information and link it to the difference in the information contained in the repositories of the studied projects. This thesis confirms the significant influence that quality metrics have on each other. It also shows that it is important to view them together as a whole and suppose that their correlation could influence the appearance of unwanted vulnerabilities as well. One of the important conclusions I can draw from this thesis is that the visualization of metric evolution graphs, helps the understanding of the values as well as their connection to each other in a more meaningful way. It allows for better grasp of their influence on each other as opposed to only studying their correlation values. This study confirms that studying metric correlations and evolution trends can help developers improve their projects and prevent them from becoming difficult to extend and maintain, increasing the potential for good quality as well as more secure software code.
Die vorliegende Dissertation beschäftigt sich mit den Chancen und Restriktionen, denen Parteien im Wahlkampf auf supranationaler Ebene der EU begegnen. Mittels kommunikationswissenschaftlicher Konzepte des Agenda-Settings (Fokus: Medien) und Agenda-Buildings (Fokus: Parteien) wird anhand des Wahlkampfs zur Wahl des Europäischen Parlaments (EP) 2014 erstens analysiert, inwieweit nationale politische Parteien die EU als Thema auf ihre Agenda setzen und ob etablierte Parteien so zu einer Normalisierung des EU-Wahlkampfs beitragen können. Zweitens wird untersucht, ob Parteien einen strukturellen Vorteil haben, die mediale Agenda auch auf supranationaler Ebene im Wahlkampf beeinflussen zu können, also mit EU-fokussierter Wahlkampfkommunikation in den Medien punkten können. Drittens wird geprüft, ob sich Parteien durch die Ablehnung der EU-Integration und der damit verbundenen, konflikthaften Kommunikation einen Vorteil für die Sichtbarkeit ihrer Kampagnen verschaffen können. Viertens und abschließend wird erforscht, ob Agenda-Building die Rangfolge spezifischer politischer Themenfelder auf der medialen Agenda im europäischen Kontext beeinflussen kann.
Die Analysen zeigen erstens, dass ein europapolitischer Fokus der Wahlkampfkommunikation nicht mehr nur auf Seiten der kleinen (euroskeptischen) Parteien zu finden ist. Verfolgen die Parteien einen europapolitischen Fokus in ihrer Wahlkampfkommunikation, haben sie zweitens gute Chancen, in der Medienberichterstattung präsent zu sein. Drittens stellt sich ein negativer Tenor der Parteienkommunikation nicht als ausschlaggebend für die Sichtbarkeit der Parteien im Wahlkampf heraus. Eine klare Positionierung auf politischen Sachfragen bereitet Parteien viertens auch auf die Restriktionen der weiteren Ausbildung einer europäischen Themenagenda vor, da die Verschiebung in der Wichtigkeit von Themen zuerst von den Medien erfasst wird, die Kampagnenkommunikation folgt erst darauf. Die Arbeit schließt nach einer Diskussion dieser Ergebnisse mit einer Einschätzung der Analyselimitationen und einem Ausblick auf weitere Forschungsansätze.
Diese Arbeit behandelt die Konzeption und Implementation eines Action-Rollenspiels mithilfe der Game Engine Unity. Im Rahmen einer Evaluation sollte das Spiel hinsichtlich der Bedienbarkeit der integrierten Steuerungsarten, der visuellen Überzeugung der Animationen und der Benutzerfreundlichkeit über zur Verfügung gestellte Hilfsmittel und Visualisierungen bewertet werden. Zusätzlich sollten Schwachstellen und Probleme im Spiel über offenes Feedback herausgefunden werden. Die Auswertung der Evaluation ergab, dass das Spiel im Hinblick auf die Bedienbarkeit und Benutzerfreundlichkeit zwar noch ausbaufähig ist, aber insgesamt einen guten Eindruck bei den Probanden hinterlassen hat.
Gegeben sei eine Basis b>=10 und eine Ziffer a0 aus der Menge {0,..., b − 1}. Wir untersuchen, ob es unendlich viele Primzahlen gibt, die in ihrer b-adischen Zifferndarstellung die Ziffer a0 nicht besitzen. Ferner schätzen wir die Anzahl dieser Primzahlen, die kleiner sind als X = b^k, nach oben und unten ab.
Damit gelingt uns eine Verallgemeinerung von Maynards Beweis für den Fall b = 10 und wir nutzen hierzu auch die in seiner Arbeit verwendeten Werkzeuge. Unter Anderem benötigen wir die Hardy-Littlewoodsche Kreismethode sowie diverse Siebmethoden, um die Minor Arcs zu kontrollieren.
Schließlich sehen wir, dass wir Maynard's Aussage vor allem dann auf beliebige Basen b>= 10 und ausgeschlossene Ziffern a0 aus {0, ..., b − 1} übertragen können, wenn zwei betragsmäßig größte Eigenwerte von Matrizen, die von b und a0 parametrisiert werden, bestimmte Abschätzungen erfüllen. Dass diese Abschätzungen im Fall b>=102 erfüllt sind, beweisen wir im letzten Kapitel. Für die Fälle b = 10 und b = 11 liegt ebenfalls ein Mathematica-Code vor, der die Abschätzungen bestätigt.
In dieser Arbeit wird überprüft, ob die Befahrung mit Forstmaschinen auf Andosol-Waldstandorten Auswirkungen auf die Bodenverdichtung hat. Dazu werden Faktoren wie die Anzahl der Befahrungen, die Neigung sowie die Bodenart betrachtet und analysiert. Die Andosolböden im Untersuchungsgebiet sind durch sehr geringe Lagerungsdichten sowie hohe Porenvolumen, bedingt durch Laacher See-Tephra (LST), gekennzeichnet.
Infolge der Befahrung durch Forstmaschinen bei zum Teil ungünstiger Witterung, bildeten sich bis zu 67 cm tiefe Fahrspuren. Des Weiteren erhöht sich die Lagerungsdichte im Vergleich zum unbeeinflussten Wald im Schnitt um 17 %, im Extremfall bis zu 54 %. Einzeln betrachtet kann für die Bodenart ein starker Zusammenhang zwischen Feinboden, vor allem Schluff sowie Ton, und der Lagerungsdichte festgestellt werden. Ein Zusammenhang zwischen der Hangneigung und der Verdichtung des Bodens kann anhand der untersuchten Rückegasse nicht festgestellt werden. Die Anzahl der Befahrungen scheint im Untersuchungsgebiet mit dem Grad der Verdichtung einherzugehen.
Data visualization is an effective way to explore data. It helps people to get a valuable insight of the data by placing it in a visual context. However, choosing a good chart without prior knowledge in the area is not a trivial job. Users have to manually explore all possible visualizations and decide upon ones that reflect relevant and desired trend in the data, are insightful and easy to decode, have a clear focus and appealing appearance. To address these challenges we developed a Tool for Automatic Generation of Good viSualizations using Scoring (TAG²S²). The approach tackles the problem of identifying an appropriate metric for judging visualizations as good or bad. It consists of two modules: visualization detection: given a data-set it creates a list of combination of data attributes for scoring and visualization ranking: scores each chart and decides which ones are good or bad. For the later, an utility metric of ten criteria was developed and each visualization detected in the first module is evaluated on these criteria. Only those visualizations that received enough scores are then presented to the user. Additionally to these data parameters, the tool considers user perception regarding the choice of visual encoding when selecting a visualization. To evaluate the utility of the metric and the importance of each criteria, test cases were developed, executed and the results presented.
Nanotemplates for the combined structural and functional analysis of membrane-associated proteins
(2019)
Die Inkubation von unilamellaren Lipid-Vesikeln mit einem als BPG bezeichneten Abschnitt des Proteins GRAF1 führte zur Entstehung von röhrenförmigen Strukturen. Eine Untersuchung mittels negativkontrastierter Elektronenmikroskopie zeigte eine körnige Beschichtung auf der Röhrenoberfläche. Durch die höhere Auflösung der Elektronentomographie war es möglich, helikale Oligomere auf den Röhren zu erkennen. Des Weiteren zeigte sich, dass die Röhren im Durchmesser inhomogen waren und Biegungen aufwiesen. Das hatte ebenfalls Unregelmäßigkeiten in der Ordnung der helikalen Struktur zur Folge. Das Herstellungsverfahren von unilamellaren Vesikeln mittels Extruder wurde so modifiziert, dass es anstatt von Vesikeln Nanoröhren entstehen ließ. Im Gegensatz zu den Röhren, die das Protein formte, wiesen diese eine lineare Struktur mit konstantem Durchmesser auf. Trotz der Inkubation mit BPG behielten diese ihre homogene Form und zeigten nun eine geordnete helikale Beschichtung auf ihrer Oberfläche. Allerdings waren sie nicht hoch genug konzentriert für die Kryoelektronenmikroskopie, und eine reine Erhöhung der Lipidkonzentration führte nicht zu einer höhren Anzahl von Röhren, sondern zu Lipidaggregation. Weitere Experimente zeigten, dass die Chelatliganden EDTA und EGTA in der Pufferlösung zur Entstehung unilamellarer Vesikel führten. Da EDTA und EGTA die Metallionen Mg2+ und Ca2+ absorbieren, wurden weitere Tests mit neuen Pufferlösungen durchgeführt. Zur Absorption bereits vorhandener Metallionen wurden beide Chelatliganden hinzugegeben und eine Variante mit zusätzlichem Magnesiumchlorid und eine weitere mit zusätzlichem Calciumchlorid hergestellt. Es wurde gezeigt, dass Magnesiumchlorid unilamellare Vesikel zur Folge hatte und Calciumchlorid zu einer höhren Konzentration der Nanoröhren führte. Daraus wurde geschlossen, dass Calciumionen die Enstehung von Nanoröhren fördern. Zur weiteren Optimierung der Konzentration wurde eine Varianzanalyse (CCD) der einflussreichsten Variablen im Extrusionsprozess durchgeführt:
- Eine höhere Anzahl von Frier-Tau-Zyklen zur Unterdrückung multilamellarer Vesikel hatte einen positiven Einfluss.
- Es konnte keine Korrelation zwischen der Extrudertemperatur und der Konzentration von Nanoröhren nachgewiesen werden.
- Mehr Extrusionszyklen hatten eine höhere Nanoröhrenkonzentration zur Folge.
Durch das optimierte Protokoll war die Konzentration hoch genug für die Kryoelektronenmikroskopie und eine helikale Rekonstruktion. Dennoch war eine 2D-Klassifizierung nicht erfolgreich, da die Nanoröhren im aufgenommenen Datensatz nicht homogen genug im Durchmesser waren und zudem eine unterschiedliche Anzahl an multilamellaren Rändern aufwiesen. Aus diesem Grund wurde ein Skript entwickelt, das die Röhren nach ihrem Durchmesser sortiert. Mit einer Untermenge des Datensatzes, dessen Röhren einen ähnlichen Durchmesser hatten, wurde eine weitere 2D-Klassifizierung durchgeführt. Daraus resultierten schließlich 2D-Klassen der helikalen Oberflächenstruktur.
Innerhalb dieser Arbeit wird die Theorie des Video-Seethroughs anhand einer Panoramaerstellung aus mehreren Kamerabildern verschiedener Perspektiven grundlegend dargestellt. Darauf basierend wurde ein System konzipiert und umgesetzt, bei dem Videostreams durch perspektivische Verzerrung zu einem Panoramabild zusammengesetzt werden. Anschließend wird dieses auf die Innenseite eines Zylinders projiziert, in dessen Mitte sich die virtuelle Position des Betrachters befindet. Schließlich
sollen die entstandenen Videopanoramen in einer VR-Brille dargestellt werden. Innerhalb der Implementierung werden außerdem einige Optimierungen vorgestellt, unter anderem solche, die das System - über die Aufgabenstellung hinaus - echtzeitfähig machen. Des Weiteren wird das erarbeitete
System bewertet und mit zwei anderen Verfahren verglichen.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Simulationen in der Computergraphik haben das Ziel, die Realität so genau wie möglich in einer Szene einzufangen. Dafür werden intern und extern wirkende Kräfte berechnet, aus denen Beschleunigungen berechnet werden. Mit diesen werden letztendlich die Positionen von Geometrien oder Partikeln verändert.
Position Based Dynaimcs arbeitet direkt auf den Positionen. Durch Constraints wird eine Menge von Regeln aufgestellt, die zu jedem Zeitpunkt in der Simulation gelten sollen. Ist dies nicht der Fall, so werden die Positionen so verändert, dass sie den Constraints entsprechen. In dieser Arbeit wird ein PBD-Framework implementiert, in dem Solide und Fluide simuliert werden. Die Constraints werden durch ein Gauss-Seidel-Lösungsverfahren und ein Gauss-Jakobi-Lösungsverfahren gelöst. Die Berechnungen finden dabei komplett auf der GPU statt. Die Ergebnisse sind physikalisch plausible Simulationen, die in Echtzeit laufen.
Lakes and reservoirs are important sources of methane, a potent greenhouse gas. Although freshwaters cover only a small fraction of the global surface, their contribution to global methane emission is significant and this is expected to increase, as a positive feedback to climate warming and exacerbated eutrophication. Yet, global estimates of methane emission from freshwaters are often based on point measurements that are spatio-temporally biased. To better constrain the uncertainties in quantifying methane fluxes from inland waters, a closer examination of the processes transporting methane from sediment to atmosphere is necessary. Among these processes, ebullition (bubbling) is an important transport pathway and is a primary source of uncertainty in quantifying methane emissions from freshwaters. This thesis aims to improve our understanding of ebullition in freshwaters by studying the processes of methane bubble formation, storage and release in aquatic sediments. The laboratory experiments demonstrate that aquatic sediments can store up to ~20% (volumetric content) gas and the storage capacity varies with sediment properties. The methane produced is stored as gas bubbles in sediment with minimal ebullition until the storage capacity is reached. Once the sediment void spaces are created by gas bubble formation, they are stable and available for future bubble storage and transport. Controlled water level drawdown experiments showed that the amounts of gas released from the sediment scaled with the total volume of sediment gas storage and correlated linearly to the drop in hydrostatic pressure. It was hypothesized that not only the timing of ebullition is controlled by sediment gas storage, but also the spatial distribution of ebullition. A newly developed freeze corer, capable of characterizing sediment gas content under in situ environments, enabled the possibility to test the hypothesis in a large subtropical lake (Lake Kinneret, Israel). The results showed that gas content was variable both vertically and horizontally in the lake sediment. Sediment methane production rate and sediment characteristics could explain these variabilities. The spatial distribution of ebullition generally was in a good agreement with the horizontal distribution of depth-averaged (surface 1 m) sediment gas content. While discrepancies were found between sediment depth-integrated methane production and the snapshot ebullition rate, they were consistent in a long term (multiyear average). These findings provide a solid basis for the future development of a process-based ebullition model. By coupling a sediment transport model with a sediment diagenetic model, general patterns of ebullition hotspots can be predicted at a system level and the uncertainties in ebullition flux measurements can be better constrained both on long-term (months to years) and short-term (minutes to hours) scales.
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.
Stylized image triangulation
(2019)
Die stilisierte Triangulierung ist ein beliebtes Stilmittel bei der Abstraktion von Bildern. Ergebnisse sind auf Covern von Magazinen zu finden oder als Kunstwerk zu kaufen. Eingesetzt wird diese Stilisierung auch bei mobilen Anwendungen oder gar bei Programmen, die sich ausschließlich mit der automatisierten Triangulation befassen.
Diese Arbeit basiert auf einer Veröffentlichung, die die adaptive dynamische Triangulierung als Optimierungsproblem versteht und damit, hinsichtlich der visuellen und technischen Qualität, neue Ergebnisse erzielt. Ziel dieser Arbeit ist es, dieses Verfahren möglichst vielen Nutzern zugänglich zu machen. Dazu wird eine mobile Anwendung - Mesh - entworfen und umgesetzt. Ein Host-Client System wird entwickelt, um die ressourcenbedürftige Berechnung nicht auf dem mobilen Endgerät ausführen zu müssen. Im Zuge dessen wird das Verfahren für die CPU portiert und zusätzlich ein Webserver entwickelt, der die Kommunikation zwischen dem Triangulierungsverfahren und der mobilen Anwendung herstellt. Die App «Mesh» bietet die Möglichkeit, ein beliebiges Bild zu dem Server zu senden, das nach der Bearbeitung heruntergeladen werden kann.
Ein Forschungsaspekt der Arbeit thematisiert die Optimierung des Verfahrens. Dafür wird der Gradientenabstieg, der die Energieminimierung durchführt, anhand verschiedener Ansätze untersucht. Die Einschränkung der Schrittmöglichkeiten, diagonale Schrittrichtungen und eine dynamische Neupositionierung werden getestet. Es zeigt sich, dass sich bei diagonaler Schrittrichtung, anstatt horizontaler und vertikaler, keine Verbesserung verzeichnen lässt. Die Einschränkung der Schrittrichtung, dass ein Punkt seine vorherige Position nicht erneut einnehmen kann, verursacht einen Verlust an optischer Qualität. Jedoch wird der globale angestrebte Approximationsfehler in kürzerer Zeit erreicht. Die vektorbasierte Variante der flexiblen Schrittrichtung resultiert mit längerer Berechnungszeit in qualitativ hochwertigeren Ergebnissen, sodass ästhetischere Resultate erzielt werden.
Ein weiterer Bestandteil dieser Arbeit setzt sich mit der Imitation eines Kunststils auseinander. Die Werke von Josh Bryan dienen als Inspiration. Mittels eines GLSL-Shaders soll durch die Verwendung von Pseudozufälligkeit ein natürlicheres Aussehen einer schraffierten Triangulierung erreicht werden. Ergebnisse zeigen, dass der Ansatz Möglichkeiten der Verbesserung aufweist, dass jedoch eine präzisere Triangulierung für eine hochwertige Imitation notwendig ist. Als letzter Bestandteil wird ein Renderstil präsentiert, der ausgehend von einem beliebigen Ausgangspunkt, die Dreiecke der Triangulation versetzt, sodass Lücken entstehen. Durch die freie Wahl des Zentrums des Effekts, ist ein Einsatz bei Animationen denkbar.
Im Rahmen dieser Masterarbeit wird das Prinzip des hybriden Ray Tracing, einer Kombination einer Rasterisierungs-Pipeline mit Ray Tracing-Verfahren für einzelne Effekte, vorgestellt und eine Anwendung implementiert, welche innerhalb einer hybriden Ray Tracing-Pipeline Schatten, Umgebungsverdeckung
und Reflexionen berechnet und diese Effekte mit der direkten Beleuchtung kombiniert.
Das hybride Ray Tracing basiert auf der Idee, die Performance und Flexibilität von Rasterisierungs-Pipelines mit Ray Tracing zu kombinieren, um die Limitation der Rasterisierung, nicht auf die gesamte Umgebungsgeometrie an jedem Punkt zugreifen zu können, aufzuheben.
Im Rahmen der Implementation wird in die verwendete RTX-API sowie die Grafikschnittstelle Vulkan eingeführt und diese anhand der Implementation erklärt. Auf Grundlage der Ergebnisse und der Erkenntnisse bei der Nutzung der API wird diese, ihre Einsatzzwecke und Ausgereiftheit belangend, eingeschätzt.
Raytracing von NURBS
(2019)
NURBS sind eine Art von Splines, die besondere Eigenschaften besitzen.
Das ray tracen von NURBS ist eine der Darstellungsmöglichkeiten von NURBS.
Dies ist durch das konkrete berechnen von Schnittpunkten mit Strahlen
möglich. Durch die vielseitige Möglichkeiten der Modellierung mittels NURBS
sind diese beliebt in Anwendungen die im Maschinenbau verwendet werden
und auch anderen CAD-Programmen. Diese Arbeit befasst sich mit der
Berechnung von NURBS-Kurven und -Oberflächen, dem direkten rendern
von diesen und wägt ab ob sich der Aufwand dafür im Vergleich zu Tesselierung
lohnt.
Politische Steuerung in nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz
(2019)
Das Ziel der Dissertation besteht in der Erklärung und Analyse grundlegender Steuerungsmuster zwischen Politik und Universitätssystem in den nationalen Bologna-Prozessen in Deutschland, Österreich und der Schweiz: Wurde die Studienreform primär staatlich verordnet, im Dialog mit den Hochschulen implementiert oder die Ausgestaltung der Reform der Wissenschaft weitgehend überlassen - und welche Instrumente wurden dabei weshalb genutzt? Damit schließt die Arbeit an den aktuellen Forschungsstand zu vertikalen Vermittlungsprozessen (übernational-national) im Bologna-Prozess an: Nationale Hochschulsysteme konvergieren nicht zu einem einheitlichen Modell, sondern nationale Faktoren (z.B. Problemdeutungen und Einflussmöglichkeiten von Bildungspolitik, Universitäten u.a.) führen dazu, dass Bologna jeweils länderspezifisch verstanden und interpretiert wird.
Vor diesem Hintergrund wird im theoretischen Teil zur Anleitung eines systematischen Vergleichs ein analytischer Rahmen entworfen, dessen Elemente sowohl aus der Politikwissenschaft (Instrumenteforschung, Politische Steuerung, Governance etc.) als auch aus der Hochschulforschung stammen. In den anschließenden empirischen Kapiteln zu den drei Ländern werden die Akteurkonstellationen und faktisch zu beobachtenden Instrumentarien beschrieben, analysiert und interpretiert. Die methodische Basis bilden neben der Analyse zahlreicher Dokumente 37 leitfadengestützte Interviews mit Expertinnen und Experten.
Grundsätzlich lassen sich auf Basis der empirischen Teile die folgenden zentralen Ergebnisse der Studie festhalten:
Deutschland: Aufgrund der relativ starken Kompetenzen der Länder und der Einflussschwäche der Universitäten ist für den deutschen Bologna-Prozess ein primär interventionistisches Muster kennzeichnend. Dieses wurde und wird bis heute dadurch verstärkt, dass die Umsetzung von Bologna durch spezifische Problemwahrnehmungen und -lösungen von KMK und HRK in den 90er Jahren geprägt ist (z.B. Modularisierung als Antwort auf unstrukturierte Studiengänge, Akkreditierung als Fortführung der tradierten Input-Steuerung). `Bologna` wurde so mit genuin nationalen Instrumenten verquickt, die z.T. quer zum tradierten Lehrhabitus vieler Hochschullehrerinnen und -lehrer lag und liegt (z.B. Modularisierung oder Kompetenzorientierung). Verstärkend trat hinzu, dass die Reform u.a. aufgrund des Bund/Länder-Konflikts in der Bildungspolitik im Vorfeld der Föderalismusreform I nicht finanziell unterstützt wurde. Plastisch formuliert ist der deutsche Bologna-Prozess regulativ über- und finanziell untersteuert, was auch zu den Studierendenprotesten 2009/2010 beitrug.
Österreich: Der Bologna-Prozess lief in Österreich parallel zu einem umfassenden Neuordnungsprozess, innerhalb dessen die Universitäten in ihrer Autonomie erheblich gestärkt wurden und sich das zuvor zentrale Wissenschaftsministerium in seinen Kompetenzen erheblich limitierte. Dieses hatte die Reform unmittelbar 1999 noch angestoßen, zog sich anschließend jedoch im Rahmen einer `minimalen Steuerung` zurück und übernahm auch keine Reformmehrkosten. Da unterhalb der in die Autonomie entlassenen Universitäten kein nationaler Dialog über die Reform in Gang kommen konnte, fand der Bologna-Prozess vor allem auf der Ebene der jeweils eigenständigen Universitäten `vor Ort` statt. Diese erhebliche regulative und finanzielle Untersteuerung führte 2009/2010 zu massiven Studierendenprotesten, die angesichts der schwachen Position des Ministeriums auch nur unzureichend kanalisiert werden konnten.
Schweiz: In der Schweiz hingegen ist eine austarierte regulative und finanzielle Steuerung zu beobachten. Bund und Kantone übertrugen Anfang der 2000er Jahre wenige, aber wesentliche Kompetenzen auf ein gemeinsames Organ, das seinerseits per Gesetz eng mit der Rektorenkonferenz zusammenarbeiten sollte. Bologna stärkte dieses bis dato auf dem Papier bestehende Muster: Vor dem Hintergrund einer übergreifend geteilten prozessualen Subsidiaritätsnorm sowie weitgehender Präferenzenübereinstimmung zwischen Politik und Universitäten finanzierte der Staat gezielt die Reformmehrkosten sowie strategische Projekte und delegiert die Formulierung, Implementierung und Weiterentwicklung zentraler Vorgaben auf der Basis des Entscheidungsvorbehalts an die Rektorenkonferenz bzw. Universitäten. Probleme werden innerhalb dieses Arrangements z.T. identifiziert und bearbeitet. Die Politik greift nur subsidiär im Ausnahmefall ein. Die Schweiz kommt daher dem Idealtypus der strukturierenden Steuerung sehr nahe.
Die Befunde werden abschließend in einen größeren Bezugsrahmen eingeordnet, um sie über Bologna hinaus für die Analyse des deutschen Hochschulsystems fruchtbar zu machen. Maßstab hierfür sind ausgewählte normative Kriterien zur Güte von Steuerungsmustern. So wird z.B. gezielt die politische Entscheidungskapazität in den beobachteten Mustern betrachtet: Während etwa in Deutschland auf die Studierendenproteste 2009 im Rahmen des interventionistischen Musters mit verbindlichen Instrumenten wie Strukturvorgaben, Akkreditierung und letztlich dem Qualitätspakt Lehre nicht nur symbolisch reagiert werden konnte, stand das Wiener Wissenschaftsministerium den starken Protesten durch den Verzicht auf regulative und finanzielle Ressourcen hilflos gegenüber.
Auf dieser Basis werden abschließend einige grundlegende Anregungen zur Weiterentwicklung des deutschen Hochschulsystems gegeben. Unter anderem wird dafür plädiert, den hochschulpolitischen Reformdiskurs, der sich oftmals nur zwischen den Polen `mehr Staat` und `mehr Wettbewerb` zu bewegen scheint, gezielt um alternative Handlungslogiken und Akteure zu erweitern: Die Ergebnisse der Arbeit legen nahe, Verbände und Organisationen (Rektorenkonferenzen, Fachgesellschaften, Fakultätentage u.a.) politisch zu stärken, um diese Sichtweisen und Expertisen in zukünftigen Reformprozessen (z.B. aktuell Digitalisierung) systematischer als zuvor miteinzubeziehen. Denn eine zu starke Entkopplung von politischen und wissenschaftlichen Rationalitäten führt unweigerlich zu nicht intendierten Effekten, die ihrerseits wieder Handlungsdruck erzeugen (z.B. Proteste).
In dieser Arbeit wurden erstmals die strukturelle Wechselwirkung zwischen Kalium- Wasserglas-Systemen mit Aluminium-Tetrametaphosphat sowie generell über Wasserglas-Systeme mit Aluminium-Hexametaphosphat als chemischer Härter untersucht. Dabei wurde der kristalline Phasengehalt mittels Pulverdiffraktometrie und anschließender Rietveld-Analyse qualitativ und quantitativ beschrieben. Die Untersuchung des amorphen Phasengehalts erfolgte über verschiedene spektroskopische Methoden (NMR-, ATR-IR- und Raman-Spektroskopie). Das Löslichkeitsverhalten der chemischen Härter in alkalischer Umgebung wurde mit der optischen Emissions- und Elektronenabsorptionsspektroskopie gemessen. Für die Untersuchung der mechanischen Parameter kamen die Drei-Punkt- Biegefestigkeitsprüfung, die Resonanz-Frequenz-Dämpfungsanalyse und die Säureprüfung zum Einsatz. Die Gefüge-Struktur der chemisch gehärteten Wassergläser wurde rasterelektronenmikroskopisch untersucht. Es konnte gezeigt werden, dass der Reaktionsmechanismus der Härtungsreaktion von Kalium-Wassergläsern und Aluminium-Metaphosphaten in Abhängigkeit von der Metaphosphat-Struktur auf unterschiedlichen Wegen abläuft. Bei Aluminium- Tetrametaphosphat bildet sich beim Herauslösen der Aluminium-Ionen aus dem Metaphosphat in einer Ionen-Austauschreaktion das Kalium-Tetrametaphosphat- Dihydrat. Bei Proben mit Aluminium Hexametaphosphat konnte keine vergleichbare Struktur nachgewiesen werden. Parallel dazu findet eine Depolymerisationsreaktion der cyclischen Phosphat-Struktur statt, die stufenweise über mehrere Schritte zum kristallinen Kaliumdihydrogenphosphat abgebaut wird. Das Einbringen des jeweiligen Aluminium-Metaphosphats verursacht einen Abfall des pH-Wertes, wodurch die Polykondensation der Wasserglas-Struktur in Gang gesetzt wird. Diese Polykondensation wird weiter verstärk, indem bei der Depolymerisation des Metaphosphats die Kalium-Ionen in Form von unterschiedlich stark kondensierten Kaliumphosphaten bzw. Kaliumhydrogenphosphaten dem Wasserglas entzogen werden, was zu einer weiteren Herabsetzung des pH-Wertes und somit zu einer Senkung der elektrostatischen Stabilisierung des Wasserglases führt. Die aus der Aluminium-Metaphosphat-Struktur herausgelösten Aluminium-Ionen dringen in die abbindende, silikatische Netzwerkstruktur ein und bilden eine alumosilikatische Bindermatrix. Dieser Effekt ist bei Aluminium-Hexametaphosphat deutlich stärker ausgeprägt als bei Aluminium-Tetrametaphosphat. Weiterhin entstehen röntgenamorphe, hydratisierte Aluminiumphosphat-Strukturen, die in eigenen Bereichen innerhalb der amorphen Bindermatrix vorliegen. Daraus folgt, dass es sich bei den chemisch gebundenen Kalium-Wasserglas-Bindern um kein homogenes System handelt. Dies liegt hauptsächlich an der hohen Oberflächenladung und der Viskosität des Wasserglases, da mit dem Eintrag des feinen Härterpulvers dieses sofort verklumpt. Trotz optimierter Homogenisierungstechniken bleiben Teile des Härters in begrenzten Bereichen bestehen, die dazu führen, dass dieser nicht vollständig umgesetzt wird. Innerhalb der amorphen Bindermatrix liegen teilweise verschieden stark kondensierte Phosphat-Einheiten, silikatische und alumosilikatische Phasen angrenzend nebeneinander vor. Dazu kommen neugebildete kristalline Phasenbestandteile sowie Anteile an nicht vollständig umgesetztem Aluminium-Metaphosphat-Härter.
In Bezug auf die mechanischen Eigenschaften lässt sich zusammenfassen, dass mit zunehmender MVZ des Kalium-Wasserglases die Säurebeständigkeit der Probe sowie der Grad der Porosität zunehmen. Die mechanische Festigkeit und der Elastizitätsmodul hingegen nehmen mit steigender MVZ ab. Mit einer Änderung der Metaphosphat-Struktur vom Aluminium-Tetrametaphosphat zum Aluminium- Hexametaphosphat nimmt die chemische Beständigkeit gegenüber dem Säureangriff ab, auch sinkt der Grad der Porosität. Die Biegefestigkeit und der Elastizitätsmodul liegen bei den Proben mit Aluminium-Hexametaphosphat als chemischen Härter niedriger. Somit lassen sich Aussagen über künftige Wirkungsweisen hinsichtlich der Rezeptoptimierung treffen, um gezielt die chemische Beständigkeit oder die mechanischen Eigenschaften wie Porosität, Festigkeit oder Steifigkeit nach dengewünschten Anforderungen anzupassen.
Datenflussmodelle in der Literatur weisen oftmals einen hohen Detailgrad auf, der sich auf die auf den Modellen durchgeführten Datenflussanalysen überträgt und diese somit schwerer verständlich macht. Da ein Datenflussmodell, das von einem Großteil der Implementierungsdetails des modellierten Programms abstrahiert, potenziell leichter verständliche Datenflussanalysen erlaubt, beschäftigt sich die vorliegende Masterarbeit mit der Spezifikation und dem Aufbau eines stark abstrahierten Datenflussmodells und der Durchführung von Datenflussanalysen auf diesem Modell. Das Modell und die darauf arbeitenden Analysen wurden testgetrieben entwickelt, sodass ein breites Spektrum möglicher Datenflussszenarien abgedeckt werden konnte. Als konkrete Datenflussanalyse wurde unter anderem eine statische Sicherheitsprüfung in Form einer Erkennung unzureichender Nutzereingabenbereinigungen durchgeführt. Bisher existiert kein Datenflussmodell auf einer ähnlich hohen Abstraktionsebene. Es handelt sich daher um einen einzigartigen Lösungsentwurf, der Entwicklern die Durchführung von Datenflussanalysen erleichtert, die keine Expertise auf diesem Gebiet haben.
Social Network of Business Objects (SoNBO) ist ein Konzept, um im Unternehmen in heterogenen Systemlandschaften verteilte Informationen zu aggregieren und gesammelt auf einer Benutzeroberfläche zur Verfügung zu stellen. Die zentrale Idee ist dabei, die Unternehmensinformationen als Netzwerk (auch: Graph) zu verstehen. Es gibt bereits einen SoNBO-Explorer, der die Informationen eines Customer Relationship Management-Systems (CRM-System) integriert. Die Herausforderung bei der Konfiguration einer solchen Anwendung besteht darin, das Unternehmensnetzwerk zu identifizieren, und auf diese Weise heraus zu finden, wie die gespeicherten Daten im Unternehmen verknüpft sind. Dafür ist ein Tool hilfreich, das das Unternehmensnetzwerk visualisieren kann. In dieser Arbeit wird ein selbstentwickeltes Tool (SoNBO-Graph-App) als Prototyp vorgestellt, das diese Visualisierung ermöglicht. Mit dieser Anwendung kann die Konfiguration des Netzwerks im SoNBO-Explorer bestehend aus den zusammengeführten Daten unterstützt werden, indem diese Konfiguration auf graphischer Ebene durchgeführt wird. Der Prototyp ist an zwei verschiedenen Datenbanken eines Customer Relationship Management (CRM) Systems angebunden und ermöglicht die Aggregation dieser Daten, sodass sie in einer Übersicht zusammenhängend als Graph dargestellt werden. Dadurch erhält der Anwender einen besseren Überblick und ein Verständnis über den Zusammenhang der unterschiedlichen Daten. Diese Arbeit ist Teil des Langzeitforschungsprojekts SoNBO, dessen Ziel ein Konzept zur Integration von Informationen verschiedener geschäftlicher Anwendungssysteme ist.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
This work describes a novel software tool for visualizing anatomical segmentations of medical images. It was developed as part of a bachelor's thesis project, with a view to supporting research into automatic anatomical brain image segmentation. The tool builds on a widely-used visualization approach for 3D image volumes, where sections in orthogonal directions are rendered on screen as 2D images. It implements novel display modes that solve common problems with conventional viewer programs. In particular, it features a double-contour display mode to aid the user's spatial orientation in the image, as well as modes for comparing two competing segmentation labels pertaining to one and the same anatomical region. The tool was developed as an extension to an existing open-source software suite for medical image processing. The visualization modes are, however, suitable for implementation in the context of other viewer programs that follow a similar rendering approach.
The modified code can be found here: soundray.org/mm-segmentation-visualization.tar.gz.
Das „Templerhaus“ in Boppard.
Kunsthistorische Untersuchung eines spätromanischen Baudenkmals
(2019)
Die vorliegende Bachelorarbeit untersucht die Namens-, Besitz- und Nutzungsgeschichte des sogenannten Templerhauses, einem massiven Profanbau der Stauferzeit in Boppard (Rheinland-Pfalz). Nach einer Beschreibung des heutigen Erscheinungsbildes und der Erarbeitung früherer Zustände erfolgt ein stilkritischer Vergleich mit ausgewählten Beispielen der Umgebung, der Rekonstruktionsversuch früherer Bauphasen und eine Einordnung in den städtischen Kontext.
Die vorliegende Arbeit hat die Adaption der Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen nach Günter Krampen aus dem Jahr 1991 zum Ziel und prüft die Übersetzung auf ihre Gültigkeit und Richtigkeit. Nach der Erklärung des Forschungsinteresses und der Herleitung des psychologischen Konstruktes der Kontrolle, sowie der Vorstellung des behandelten Fragebogens, werden Methoden der Übersetzung psychologischer Messinstrumente vorgestellt und im Anschluss des Übersetzungsprozesses des Fragebogens dargestellt, welcher aus einem Team-Ansatz bestand und durch die Kontrolle mehrerer Personen einen hohen Qualitätsanspruch garantiert. Die Endfassung des Fragebogens wird an einer Stichprobe von N=129 polnischen Probanden untersucht und mit einer deutschen Kontrollgruppe von N=52 Probanden, sowie der Normierungsstichprobe aus dem deutschen Manual des Fragebogens zu Kompetenz- und Kontrollüberzeugungen (Krampen, 1991) verglichen. Teststatistische Kennwerte wie die Mittelwerte und Standardabweichungen der Items aber auch der Subskalen weisen eine große Ähnlichkeit der Fragebogenversionen auf. Ebenso können die Trennschärfen der Items im Gruppenvergleich der drei Stichproben als zufriedenstellend angesehen werden. Die interne Konsistenz sowie die Testhalbierungsreliabilität können für die Subskalen sowie den gesamten Fragebogen in der polnischen Version größtenteils bestätigt werden, sodass die Übersetzung als reliabel anzusehen ist. Darüber hinaus kann die Validität durch testtheoretisch adäquate Skaleninterkorrelationen und die Validierung mit dem externen Faktor des Wohlbefindens bestätigt werden. Die qualitative Erhebung zur Überprüfung des Verständnisses der übersetzten Items, zeigt zudem ein homogenes unidimensionales Bild und bestätigt die Qualität der Übersetzung. Die faktorielle Analyse zeigt jedoch im Gegensatz zu den restlichen Untersuchungen deutliche Unterschiede auf, da aus der polnischen Stichprobe eine zweifaktorielle Lösung auf Sekundärskalenniveau hervorgeht, wohingegen die Normstichprobe des Manuals, sowie die deutsche Stichprobe konstruktdifferenzierte und in der Theorie des Fragebogens begründete vierfaktorielle Ausgaben aufzeigt. In jeder Version des Fragebogens wurden jedoch schwach ladende und faktoriell nicht klar zuordbare Items gefunden, welche eine statistische Itembereinigung des Fragebogens in der zukünftigen Arbeit mit dem Messinstrument legitimieren. Diese Unterschiede bestätigt auch die Procustean Factor Rotation, welche korrelative Differenzen zwischen den Faktoranalysen der deutschen und polnischen Daten anzeigt und in einer weiteren Untersuchung näher beleuchtet werden sollte. Zusammenfassend kann die Übersetzung des Fragebogens zu Kompetenz- und Kontrollüberzeugungen als gelungen angesehen werden, auch wenn der Fragebogen sowohl in seiner Originalfassung als auch in der polnischen Version einer Optimierung unterlaufen sollte.
Thesis is devoted to the topic of challenges and solutions for human resources management (HRM) in international organizations. The aim is to investigate methodological approaches to assessment of HRM challenges and solutions, and to apply them on practice, to develop ways of improvement of HRM of a particular enterprise. The practical research question investigated is “Is the Ongoing Professional Development – Strategic HRM (OPD-SHRM) model a better solution for HRM system of PrJSC “Philip Morris Ukraine”?”
To achieve the aim of this work and to answer the research question, we have studied theoretical approaches to explaining and assessing HRM in section 1, analyzed HRM system of an international enterprise in section 2, and then synthesized theory and practice to find intersection points in section 3.
Research findings indicate that the main challenge of HRM is to balance between individual and organizational interests. Implementation of OPD-SHRM is one of the solutions. Switching focus from satisfaction towards success will bring both tangible and intangible benefits for individuals and organization. In case of PrJSC “Philip Morris Ukraine”, the maximum forecasted increase is 330% in net profit, 350% in labor productivity, and 26% in Employee Development and Engagement Index.
Im Rahmen eines partizipatorischen Aktionsforschungsansatzes wurden die Lehrpersonen und Schüler/innen an einem Oberstufenrealgymnasium mit musischem Schwerpunkt und Montessori (MORG), drei Schuljahre, von 2012-2015, auf ihrem Weg zu einer inklusiven Schule wissenschaftlich begleitet. Basierend auf Einstellungs- und Selbstwirksamkeitstheorien und Ansätzen der inklusiven Pädagogik, sowie akteursbasierten Forschungen, richtete sich das Erkenntnisinteresse auf die Umsetzung einer inklusiven Lern- und Schulkultur – in einer Institution im Bildungssystem der Sekundarstufe II in Österreich, das von seiner Ausrichtung her hoch selektiv ist.
Mittels qualitativer und quantitativer Daten konnte rekonstruiert werden, von welchem Verständnis die Lehrpersonen am MORG (n=19) geleitet wurden, welche Kompetenzen sie aus ihrer Sicht für die Entwicklung einer inklusiven Bildung mitgebracht haben und wie sie die Inklusion am MORG umsetzten. Zur Erhebung der Einstellungen und Selbstwirksamkeitseinschätzungen der Lehrpersonen wurden die international und national erprobten SACIE-R (Sentiments, Attitudes and Concerns about Inclusive Education-Revi-sed) und TEIP (Teacher Efficacy for Inclusive Practice) Skalen in einer deutschsprachigen Fassung verwendet. Ferner wurde die empirische Erhebung im Rahmen einer webbasierten nationalen Befragung von Lehrpersonen an mehreren Schultypen erweitert (n= 427), um vergleichende Aussagen treffen zu können.
Inhaltsanalytisch verarbeitete Interviews und statistisch ausgewertete, im Forschungsteam erstellte Fragebögen für Erziehungsberechtigte (n= 37) sowie Schüler/innen (n=19), ermöglichten den vertieften Einblick in die Praxis aus mehreren Sichtweisen. Die Zusammenschau der Ergebnisse zeigt, dass es einem eher jungen Lehrerteam mit sehr positiven Einstellungen zur Inklusion von Jugendlichen mit Beeinträchtigungen – trotz anfänglicher Schwierigkeiten und selektiver systemischer Rahmenbedingungen auf der Sek. II – gelungen ist, eine für alle Schüler/innen lernförderliche und lebendige Schulkultur herzustellen. Dennoch blieben die Bemühungen der Lehrpersonen im Rahmen der Systemgrenzen. Eine Weiterentwicklung zu einer ‚Schule für alle‘, eine logische Konsequenz inklusionstheoretischer Ansätze, ist nicht festzustellen. Die Auswertungen bestätigen die bisher gewonnenen zentralen Erkenntnisse der Inklusions- und Akteursforschung und werden durch Ergebnisse erweitert, die im Zusammenhang mit den systemischen Rahmenbedingungen auf der Sek. II gesehen werden können.
Commonsense reasoning can be seen as a process of identifying dependencies amongst events and actions. Understanding the circumstances surrounding these events requires background knowledge with sufficient breadth to cover a wide variety of domains. In the recent decades, there has been a lot of work in extracting commonsense knowledge, a number of these projects provide their collected data as semantic networks such as ConceptNet and CausalNet. In this thesis, we attempt to undertake the Choice Of Plausible Alternatives (COPA) challenge, a problem set with 1000 questions written in multiple-choice format with a premise and two alternative choices for each question. Our approach differs from previous work by using shortest paths between concepts in a causal graph with the edge weight as causality metric. We use CausalNet as primary network and implement a few design choices to explore the strengths and drawbacks of this approach, and propose an extension using ConceptNet by leveraging its commonsense knowledge base.
Willingness to pay and willingness to accept on a two-sided platform - The use case of DoBeeDo
(2019)
It is widely known that especially for technology-based start-ups, entrepreneurs need to set up the boundaries of the business and define the product/service to offer in order to minimize the risk of failure. The goal of this thesis is to not only emphasize the importance of the business model development and evaluation but also show an example customer validation process for an emerging start-up named DoBeeDo, which is a mobile app operating on a two-sided market. During the process of customer validation a survey has been conducted to evaluate the interest of the target groups as well as the fit of their expectations using the Willingness to Pay and Willingness to Accept measures. The paper includes an analysis and evaluation of the gathered results and assesses whether the execution of the Customer Development Model can be continued.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.
Recently the workflow control as well as compliance analysis of the Enterprise Resource Planning systems are of a high demand. In this direction, this thesis presents the potential of developing a Workflow Management System upon a large Enterprise Resource Planning system by involving business rule extraction, business process discovery, design of the process, integration and compliance analysis of the system. Towards this, usability, limitations and challenges of every applied approach are deeply explained in the case of an existing system named SHD ECORO.
Die didaktische Konzeption der Schreibkonferenz ist soweit etabliert, dass sie bereits in den rheinland-pfälzischen Rahmenplan für die Grundschule für das Fach Deutsch übernommen wurde. Bisher liegt eine Reihe von Erfahrungsberichten zur Schreibkonferenz vor, jedoch wurden dazu bislang kaum systematisch empirische Untersuchungen durchgeführt. Die empirische Studie dieser Arbeit, welche an die VERA-Studie angeschlossen ist, untersucht, ob im Grundschulunterricht (in der dritten und vierten Klasse) der Einsatz von Schreibkonferenzen im Vergleich zur konventionellen Aufsatzdidaktik zu einer Verbesserung der Schreibleistungen, des eigenen Lernens, zu positiven Veränderungen des eigenen Verhaltens sowie zur Förderung der Motivation der Schüler beim Schreiben führt. Dabei wird von folgenden Überlegungen ausgegangen: Zum einen sollte die Schreibkonferenz im Gegensatz zur traditionellen Aufsatzdidaktik das selbstständige Arbeiten der Schüler mit Texten im Deutschunterricht fördern, zum anderen sollte sie zu einer intensiveren Auseinandersetzung mit Texten und damit zu einer Verbesserung des Aufsatzschreibens führen.
Der vorliegenden Arbeit liegt die Frage zugrunde in wie weit die zunehmende Digitalisierung die Work-Life Balance beeinflusst, was auch gleichzeitig das Ziel dieser Arbeit beschreibt.
Dazu wird eine Literaturrecherche durchgeführt, in der eine direkte Korrelation vom subjektiven Work-Life Balance Empfinden mit dem empfundenen Stresslevel hergestellt wird. Mit Hilfe von Antonovskys Salutogenetischen Modell (1997) aus dem Bereich der Stressforschung werden Faktoren ermittelt, welche das individuelle Stressempfinden - und somit die empfundene Work-Life Balance - beeinflussen. Es wird ein Interviewleitfaden für ein problemzentriertes Interview nach Witzel (1985) erstellt, welches als Hauptuntersuchungsgrundlage die Beeinflussung der ermittelten Faktoren durch die Digitalisierung beinhaltet, welche anhand einer qualitativen Inhaltsanalyse nach Mayring (2014) ausgewertet werden.
Demnach hat die Digitalisierung Einfluss auf jeden dieser ermittelten Faktoren und damit zusammenhängend auf die Work-Life Balance. Dies zeigt, dass uns die Digitalisierung in fast allen Bereichen unseres beruflichen oder privaten Lebens beeinflusst. Ob dieser Einfluss positiv oder negativ ist, hängt von dem Individuum ab, welches diesen Faktor bewertet. Es konnten klare Unterscheidungen zwischen Personen festgestellt werden, die in einem IT-Beruf arbeiten und solche die dies nicht tun. Auf die Personen im IT-Beruf hatte die Digitalisierung einen deutlich besseren Einfluss auf die Work-Life Balance als auf solche, die nicht in solch einem Beruf arbeiten.
Diese Arbeit soll das von Dietz und Oppermann entwickelte Planspiel „Datenschutz 2.0“ an den heutigen Alltag der Schüler anpassen, die Benutzung in der Sekundarstufe II ermöglichen und die technischen und gesetzlichen Problematiken des Planspiels beheben. Das mit dem Planspiel aufgegriffene Thema Datenschutz ist im rheinland-pfälzischen Informatik-Lehrplan für die Sekundarstufe II verankert. Hier wird der Begriff Datenschutz in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ genannt. Jedoch werden in dem Planspiel keine Daten erhoben, sondern die selbst hinterlassenen Datenspuren untersucht. Diese Form des Datenschutzes ist im Grundkurs in der vorgeschlagenen Reihe „Datensicherheit unter der Berücksichtigung kryptologischer Verfahren erklären und beachten“ unter dem Thema Kommunikation in Rechnernetzen zu finden. Im Leistungskurs steht die Datensicherheit in gleichbenannter Reihe und Thema und in der Reihe „Datenerhebung unter dem Aspekt Datenschutz beurteilen“ im Thema Wechselwirkung zwischen Informatiksysteme, Individuum und Gesellschaft.
Die Nachhaltigkeitsberichterstattung kann als ein zentrales Element einer konsequenten Unternehmensstrategie zur Umsetzung der gesellschaftlichen Verantwortung (Corporate Social Responsibility) angesehen werden. Um die Unternehmen bei dieser Aufgabe zu unterstützen stellt die Global Reporting Initiative (GRI) mit ihren G4 Leitlinien einen Orientierungsrahmen bereit, dessen Anwendung sich allerdings für Klein und Mittelunternehmen sehr komplex gestaltet. Ein branchenspezifisches Sector Supplement für den Weinbau existiert derzeit noch nicht.
Ziel der vorliegenden Arbeit ist es, diese Forschungslücke durch die Entwicklung weinbauspezifischer Nachhaltigkeitsaspekte und Indikatoren zu schließen, um den Betrieben eine selbstständige GRI-konforme Berichterstattung zu ermöglichen.
Der Prozess zur Identifikation wesentlicher Nachhaltigkeitsaspekte und -indikatoren erfolgt mittels Erhebungs- und Auswertungsmethoden der qualitativen Sozialforschung in Form
von Workshops, betrieblichen Vorortanalysen und Experteninterviews.
Parallel dazu erfolgt eine umfassende Analyse der weinbaulichen Wertschöpfungskette in Form einer Internet- und Literaturrecherche. Diese umfasst vorrangig die ökologischen Nachhaltigkeitsaspekte als diejenigen Bestandteile weinbaulicher Tätigkeiten, die sich sowohl positiv als auch negativ auf die Umwelt auswirken können. Anschließend erfolgt die zentrale Priorisierung der identifizieren Handlungsfelder und Nachhaltigkeitsthemen durch die Stakeholder. Zur Visualisierung der bewerteten Handlungsfelder dient das Instrument der Wesentlichkeitsanalyse.
Auf dieser Basis erfolgt die Entwicklung eines Handlungsleitfadens zur Erstellung von Nachhaltigkeitsberichten in der Weinwirtschaft. Hiermit erlangen Weingüter die praktische Kompetenz ein eigenes Nachhaltigkeitsreporting anzugehen.
Im Rahmen der Arbeit wurde auch ein elektronisches Tool entwickelt, das den Betrieben die Möglichkeit eröffnet, betriebliche Umweltaspekte zu erfassen und zu bewerten. Gleichzeitig wird den Anwendern damit die Generierung eines überbetrieblichen Vergleichs der Umweltleistung ermöglicht (Benchmarking).
Eine weitere Forschungsfrage der vorliegenden Arbeit beschäftigt sich mit der Biodiversitätserfassung und -bewertung für Rebland. Hintergrund sind die bisher nur geringen Funde auf der durch das Bundesamt für Naturschutz festgelegten Kennartenlisten bzw. den HNV-Stichprobenflächen (High nature value farmland-Indikator) für Rebland.
Hierzu wurde mittels Geoinformationssystemen das Artenvorkommen in rheinland-pfälzischen Weinanbaugebieten analysiert und 30 Pflanzenarten als Indikatorarten für den Weinbau abgeleitet. Ergänzend wurden weinbergstypische, geschützte Tierarten als „Bonusarten“ identifiziert. Die Indikatorarten werden den Winzern als ein Instrument zur eigenständigen Erfassung der Biodiversität in den Weinbergen dienen und im Rahmen einer Nachhaltigkeitsberichterstattung herangezogen werden können.
Seit der Domestizierung von Wein vor über 6000 Jahren haben Weinbauern mit Krankheiten und Schädlingen ihrer Pflanzen zu kämpfen. Seitdem führen neue Anbaumethoden und ein besseres Verständnis der ökologischen Prozesse im Weinberg zu wachsenden Erträgen und steigender Traubenqualität. In dieser Arbeit beschreibe ich die Effekte zweier innovativer Anbaumethoden auf Schädlinge und Nützlinge im Weinbau; Pilzwiderstandsfähige Sorten (PIWIs) und das Reberziehungssystem Minimalschnitt im Spalier (SMPH). SMPH erlaubt eine drastische Reduktion des Arbeitsaufwands im Weinberg. PIWIs sind resistent gegenüber zwei der destruktivsten Pilzkrankheiten der Rebe und bleiben daher bei deutlich weniger Pflanzenschutzbehandlungen als herkömmliche Sorten gesund. Übermäßiger Gebrauch von Pestiziden wird mit einer Reihe von Problemen wie Gewässerverschmutzung, Gesundheitsfolgen beim Menschen, und Biodiversitätsverlust in Verbindung gebracht. In dieser Arbeit wurden Effekte von reduzierten Fungizid Spritzungen auf Nützlinge wie Raubmilben, Spinnen, Ameisen, Ohrwürmer und Florfliegen untersucht. Diese Gruppen profitierten entweder von den reduzierten Fungizidmengen, oder sie wurden nicht signifikant beeinflusst. Strukturelle Unterschiede in der SMPH Laubwand beeinflussten das Mikroklima im Vergleich zur Spaliererziehung. Sowohl strukturelle als auch mikroklimatische Veränderungen beeinflussten einige Arthropodengruppen im Wein.
Insgesamt lässt sich Schlussfolgern, dass sowohl PIWI Sorten als auch das Schnittsystem SMPH ein großes Potential haben, die Bedingungen für natürliche Schädlingskontrolle zu verbessern. Dies reiht sich in eine Liste anderer Vorteile dieser Managementmethoden, wie zum Beispiel eine Reduktion der Produktionskosten und verbesserte Nachhaltigkeit.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluation einer spielerischen Augmented Reality-Anwendung für mobile Endgeräte. Aufbauend auf dem ARCore SDK wurde das Spiel pARcours entwickelt, bei dem der Spieler virtuelle Objekte in der realen Umgebung platzieren kann, um sich so seinen eigenen Parcours aufzubauen. Dieser muss mit einem ebenfalls virtuellen Flugobjekt absolviert werden. Der Schwerpunkt bei der Umsetzung des Spiels lag auf der Interaktion mit den virtuellen Objekten und deren Kollisionserkennung mit realen Oberflächen. Weiterhin wurden verschiedene Eingabemöglichkeiten für das Aufbauen der Parcours und die Steuerung der Flugobjekte untersucht. Durch eine abschließende Evaluation konnten sowohl das Spiel und die verschiedenen Eingabemethoden als auch ARCore in Bezug auf die Entwicklung von Augmented Reality-Anwendungen bewertet werden.
Tracking ist ein zentraler Bestandteil vieler moderner technischer Anwendungen, insbesondere in den Bereichen autonome Systeme und Augmented Reality. Für Tracking gibt es viele unterschiedliche Ansätze. Ein erst seit kurzem verfolgter ist die Verwendung von Neuronalen Netzen. Im Rahmen dieser Masterarbeit wird eine eine Anwendung erstellt, welche für das Tracking ein Neuronales Netz verwendet. Dazu gehört ebenfalls die Erstellung von Trainingsdaten, sowie die Erstellung des Neuronalen Netzes und dessen Training.
Anschließend wird die Verwendung von Neuronalen Netzen für Tracking analysiert und ausgewertet. Hierunter fallen verschiedene Aspekte. Es wird für eine unterschiedliche Anzahl an Freiheitsgraden geprüft wie gut das Tracking funktioniert und wie viel Performance dieser Ansatz kostet. Des Weiteren wird die Menge der benötigten Trainingsdaten untersucht, der Einfluss der Architektur des Netzwerks und wie wichtig das Vorhandensein von Tiefendaten für die Funktion des Trackings ist. Dies soll einen Einblick ermöglichen wie relevant dieser Ansatz für den Einsatz in zukünftigen Produkten sein könnte.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
Die im Rahmen dieser Masterarbeit durchgeführte Analyse von Ernährungsumstellungen auf die vegane Ernährung in Form von vier Portraits lotet mit ihrer interdisziplinären Perspektive aus Gastrosophie, Ethnologie und Leibphilosophie die soziokulturellen Aspekte dieser Transmissionsprozesse aus. Dazu gehören der zivilisatorisch erlernte Umgang mit Nahrung, das Umsetzen und Reflektieren sinnlicher Wahrnehmungen im Ernährungsprozess und die Prägung von Relationen zwischen Essendem und Zu-Essendem. Geleitet wird die Analyse dabei von der Forschungsfrage: „Welche leiblich sinnlichen Wahrnehmungen geben den Anstoß zu einer Ernährungsumstellung und wie begleiten diese den Prozess der Umstellung?“. Damit gibt die Frage den Fokus auf das (leibliche) Wahrnehmungsvermögen des Menschen vor und begrenzt Ernährung bewusst nicht auf ihre physiologische Funktion der Energiegewinnung. Dadurch flicht sie sich in den Diskurs um den cultural turn in der Ernährungswissenschaft ein und zielt weg von der metabolischen Durchmessung des Essens, hin auf das Verständnis von Ernährung als Praxis des Sich-Einverleibens-von-Anderem – Essen als Vollzug von Beziehungen. Das Sich-Ernähren wird damit als sozial geprägter und leiblich vermittelter Erfahrungsvorgang sichtbar, der über das Geschmackserlebnis hinaus durch Betroffenheitserfahrung konstituiert wird. Durch das Zusammenbringen philosophischer Perspektiven, wie die der Gastrosophie Harald Lemkes, die Essen u. a. auch als Selbstbestimmung denkt, und soziologischen Theorien, wie die des Habitus-Konzepts nach Pierre Bourdieu, wird deutlich, wie die Wahrnehmungspraxis und -fähigkeit des Menschen, in ihrem leiblichsinnlichen Aspekt, die Verhaltensbestimmung im Umgang mit Nahrung und deren Quellen beeinflusst. Die vier Portraits entstanden während einer sechsmonatigen ethnographischen Feldforschung und stellen anonymisiert die Motivation, den Verlauf und das Konfliktthema der jeweiligen Ernährungsumstellung dar. Die Portraits sind sehr individuell und zeigen auf, wie und warum beispielsweise die gesundheitliche Selbstsorge oder das empathische Mitleiden mit Nutztieren Veränderungen oder Tabuisierungen im Ernährungshandeln anstoßen.
Innovationen sorgen immer mehr für einen Wandel in unserem Arbeitsalltag. Das Zusammenspiel von voranschreitenden digitalen Technologien und unserer arbeitenden Gesellschaft, lässt den Ausdruck „New Work“ immer mehr in den Vordergrund rücken. „New Work“ impliziert, dass die Arbeitswelt zur Lebenswelt wird. In diesem Zusammenhang stehen Selbstverantwortung, Selbstbestimmung und Selbstverwirklichung eines Individuums im beruflichen wie auch im privaten Umfeld.
Gegenstand dieser Bachelorarbeit ist es durch eine Literaturanalyse die Begriffsbedeutung von „New Work“ sowie dessen Bestandteile und Hintergründe zu evaluieren und damit die erste Forschungsfrage „Welche Bedeutung hat der Begriff „New Work“ in Forschung und Praxis?“ zu beantworten. Dafür werden die zentralen Inhalte Digitalisierung und Technologie, Struktur der Arbeit sowie Arbeitseinstellung von „New Work“ aufgegriffen und explizit untersucht. Welche Wahrnehmung und was für einen Nutzen Angestellte und Unternehmer in Bezug auf diese Inhalte haben, wird in der vorliegenden Bachelorarbeit anhand einer qualitativen Untersuchung analysiert. Die gewonnenen Erkenntnisse aus den Experteninterviews dienen ebenso dem Vergleich zwischen Unternehmern und Angestellten.
Die Interviews liefern das Resultat, dass „New Work“ die persönliche und berufliche Entwicklung der Individuen positiv beeinflusst. Zudem hat „New Work“ neue Perspektiven sowie Anforderungen für Arbeitgeber und Arbeitnehmer veranlasst, wobei das zielorientiere und nicht mehr das zeitorientiere Arbeiten von Bedeutung ist. Durch die Realisierung und Umsetzung dieser, kommt es zu einem erfüllenden Gefühl in der Arbeits- und Lebenswelt. Veranlasst durch diese Entgrenzung, kann „New Work“ verwirklicht werden. Denn durch einen zufriedenstellenden Beruf, wird der Sinn und Zweck der Arbeit nicht mehr in Frage gestellt. Zum Ausdruck bring die Arbeit abschließend, dass es sich hierbei um eine kulturelle Revolution auf Basis des digitalen Wandels handelt.
In this thesis, I present the results of my studies on taxonomy, systematics, and biogeography of Impatiens (Balsaminaceae) in Madagascar and the Comoro islands.
In Chapter 1 I reviewed the literature on taxonomy and classification of Balsaminaceae, on habitat, world distribution, morphology, molecular phylogenetics and infrageneric classification of the genus Impatiens. In Chapters 2-15 (Fischer & Rahelivololona 2002, 2003, 2004, 2007, 2015a, 2015b, 2015c, 2016, Fischer et al. 2004. 2017, 2018a, b submitted, Rahelivololona et al. 2003) I presented the first results of a revision of Balsaminaceae of Madagascar and the Comoro islands including the description of 78 new species. In Chapter 16 (Yuan et al. 2004) we worked on the phylogeny and biogeography of Balsaminaceae inferred from ITS sequences using combined results from molecular phylogenetic and morphological analyses. In Chapter 17 (Rahelivololona et al. 2018) we conducted a phylogeny and assessment of the infrageneric classification of species in the Malagasy Impatiens (Balsaminaceae) with a particular emphasis on taxa collected from Marojejy.
Below I summarise the most important findings of each chapter and provide an outlook for future studies.
How many species of Impatiens occur in Madagascar and the Comoro islands?
To provide additional information on the taxonomic revision of Impatiens in Madagascar and the Comoro islands, the identification of already described species as well as the description of new species was conducted. Based on herbarium specimens from BR, G, K, NEU, P, TAN and on living plants collected during several field trips, 78 new species and 6 nomina nova have been published and another 70 new taxa are already identified. Actually more than 260 species occur in Madagascar and the Comoro islands and all of them are endemic. For each species, a description of the morphology, phenology, ecology and known distribution range was provided. Apart from new taxa, the delimitation of already described species like Impatiens firmula Baker and Impatiens hildebrandtii Baill. could be clarified by studying the types and by observing the variability in the field.
Are the groups of Impatiens in Madagascar monophyletic, and what is the systematic position of Trimorphopetalum?
Yuan & al. (2004) conducted a molecular phylogenetic study to examine the morphological and karyological evolution, and the historical biogeography of the Balsaminaceae family by using nucleotide sequence data of internal transcribed spacer regions of nuclear ribosomal DNA. The results support the monophyly of the Malagasy endemic section Trimorphopetalum and show that the cleistogamous Impatiens inaperta should be included in the sect. Trimorphopetalum which is the most derived within Impatiens. Therefore, the section Preimpatiens proposed by Perrier de la Bâthie (1934) is paraphyletic.
Rahelivololona & al. (2018) provided a phylogenetic study focused on three subdivisions (based on macromorphological characters) proposed by Perrier de la Bâthie (1934). The analysis was done using two nuclear AP3/DEF homologues (ImpDEF1 and ImpDEF2) and the plastid atpB-rbcL spacer to reassess or assess the monophyly of the Malagasy Impatiens, of the sections Preimpatiens (Humblotianae and Vulgare groups) and Trimorphopetalum. A focus was on the species of Impatiens from the Marojejy National Park and of the morphologically variable species I. elatostemmoides, I. “hammarbyoides”, I. inaperta and I. manaharensis, using monophyly as the primary criterion.
As results the Malagasy Impatiens are paraphyletic and the section Preimpatiens sensu Perrier de la Bâthie (1934) (= subgen. Impatiens sensu Fischer & Rahelivololona 2002) was not resolved as a monophyletic group. The section Trimorphopetalum sensu Perrier de la Bâthie (1934) (= subgen. Trimorphopetalum sensu Fischer & Rahelivololona 2002), however, was strongly confirmed as a monophyletic lineage (BS: 92; BPP: 1). Neither the Humblotianae group nor the Vulgare group was supported as monophyletic. None of the morphologically variable species appeared to be monophyletic and the sampled species of Impatiens from the Marojejy National Park do also not form a monophyletic group.
What are the biogeographical position and the distribution patterns of Impatiens in Madagascar and the Comoro islands?
Investigation of the geographical affinities and species distribution of section Impatiens (including Humblotianae group and Vulgare group) and section Trimorphopetalum were conducted and the origin and evolution as well as species richness and endemism were discussed.
The isolation, the climate and the complex topography of Madagascar have generated the microhabitats and ecological niches favourable to the diversification of Impatiens species. Impatiens of Madagascar with 260 endemic species is actually the largest genus in Madagascar. Therefore, Madagascar and the Comoro islands are among the most species-rich regions in the world for Impatiens.
Future studies
In Impatiens on Madagascar, there remain numerous unresolved questions that need to be adressed:
• A further study based on a much larger molecular data set and sampling from the entire geographic ranges of Impatiens in Madagascar is needed to retest the monophyly of the different subgenera and sections, as well as a molecular dating of the Malagasy Impatiens.
• The study of pollinators as a key for understanding the radiation and species richness is required: Within Impatiens the different shapes of spur are related to pollinators (bees, birds, butterflies and moths). Therefore pollinator observation of specific species need to be done to understand the radiation of species by adaptation and coevolution with these pollinators. A pollination study with a large number of species within section Trimorphopetalum will help to understand the mechanism of complete disappearance of the spur, the shift of pollinators and the evolution of species richness.
• The destruction of the natural habitats of Impatiens and the subsequent reduction of humidity in logged area constitute a severe threat for the survival of many species. The conservation and reforestation of vulnerable areas such as Ankaratra, Daraina, Mandraka and Col des Tapia near Antsirabe is required.
• In terms of conservation and to mitigate the threat on the genus, a study on the ex-situ-conservation of Malagasy Impatiens species is very important as long as some species are suitable for horticultural purposes (e.g. Impatiens mayae-valeriae, Impatiens emiliae and species with broad red spur).
• Finally, the publication of the revision of Impatiens of Madagascar and the Comoro islands will help other botanists to identify the species and will thus increase our knowledge on the group.
Our work finds the fine grained edits in context of neighbouring tokens in Wikipedia articles. We cluster those edits according to similar neighbouring context. We encode neighbouring context into vector space using word vectors. We evaluate clusters returned by our algorithm on extrinsic and intrinsic metric and compare it with previous work. We analyse the relation between extrinsic and intrinsic measurements of fine grained edit tokens.
In dieser Forschungsarbeit werden Kriterien und Anforderungen für eine erfolgreiche Kollaborationsplattform zur Verbesserung der Kommunikation zwischen weltweit ver-teilten wissenschaftlichen Instituten der Eisenbahnbranche erarbeitet und bewertet. Hierzu wird zunächst eine Einführung in Kollaborationsplattformen und deren aktuelle Marktsituation und /-trends gegeben. Das daraus resultierende Wissen wird für eine qualitative Inhaltsanalyse in Form von Interviews mit der Zielgruppe der geplante Kol-laborationsplattform genutzt. Aufbauend auf dem Grundlagenwissen und der durchge-führten Interviews werden anschließend Hypothesen zur Kommunikation in wissen-schaftlichen Instituten gebildet. Diese Hypothesen dienen der Erstellung eines Frage-bogens für eine quantitative Befragung der Zielgruppe. Die folgende Analyse von allgemeinen Kollaborationsplattformen und solchen der Eisenbahnbranche gibt weitere Erkenntnisse und beschreibt Anforderungen für eine erfolgreiche Konzeption einer Kollaborationsplattform.
Eine anschließend geplante Konzeption dieser Plattform kann im Rahmen dieser Forschungsarbeit aufgrund fehlender aussagekräftiger Ergebnisse und Informationen nicht durchgeführt werden. Die geplante quantitative Inhaltsanalyse ist für den gewählten Rahmen zu aufwendig gewesen. In dieser Forschungsarbeit wird die quantitative Befragung für folgende Forschungsarbeiten in diesem Themenfeld vorbereitet. Weitere Arbeitsergebnisse werden für folgende Forschungsarbeiten ausgewertet und bereitgestellt.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Wenn es um die Vermittlung und Förderung von Kompetenzen geht, die für die Transformation zu einer nachhaltigen Gesellschaft notwendig sind, nehmen angehende Lehrpersonen eine Schlüsselrolle ein. Mit der modellhaften Einführung des Zertifikatsstudiums „Bildung – Transformation – Nachhaltigkeit“ (BTN) an der Universität Koblenz-Landau bietet sich Lehramtsstudierenden aller Fächer und Schulformen die Möglichkeit, sich in verschiedenen Modulen – begleitend zum regulären Studium – wissenschaftlich fundiert, multiperspektivisch und praxisorientiert mit Aspekten nachhaltiger Entwicklung auseinanderzusetzen. Ziel ist es, Lehramtsstudierende mit relevanten Nachhaltigkeitskompetenzen auszustatten, sie für ihre Rolle in Bezug auf die notwendige Transformation hin zu einer nachhaltigen Gesellschaft zu sensibilisieren und sie zu befähigen, in ihrem zukünftigen Berufsleben an Schulen, Hochschulen oder außerschulischen Bildungseinrichtungen inklusive und systemische Nachhaltigkeitskonzepte zu implementieren. Ein besonderer Schwerpunkt des Zertifikats liegt auf der Förderung der Reflexionsfähigkeit der Studierenden. Das Zertifikat BTN ist ein Projekt des Zentrums für Bildung und Forschung an Außerschulischen Lernorten (ZentrAL) der Universität Koblenz-Landau und wurde durch die Deutsche Bundesstiftung Umwelt (DBU) als Pilotvorhaben gefördert.