Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
- Buch (Monographie) (5)
- Habilitation (5)
- (1)
- Vorlesung (1)
- Preprint (1)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Im Vergleich zu herkömmlicher Computergrafik (perspektivische Projektion) bietet Raytracing entscheidende Vorteile, die hauptsächlich in der vergleichsweise hohen physikalischen Korrektheit der Methode begründet sind. Die Schwächen liegen hingegen im immensen Rechenaufwand.
Ein Raytracer ist vergleichsweise so rechenintensiv, weil für jeden Pixel mindestens ein Strahl verschickt werden muss. Dieser muss gegen alle Objekte im Raum geschnitten werden. Hinzu kommen noch die Strahlen, die entstehen, wenn Strahlen an Objekten reflektiert werden (Rekursion). Um diesen Rechenaufwand zu verkleinern und zusätzlich ein besseres Bild zu erzeugen, soll der adaptive Sampler den Raytracer unterstützen. Der adaptive Sampler soll während des Rendervorgangs den progressiven Fortschritt in der Bildgenerierung beobachten und Pixel von der weiteren Berechnung ausschließen, für die sich ein zusätzliches Verschießen von Strahlen nicht mehr lohnt.
Anders als der rein progressive Raytracer hört der adaptive Sampler mit dem Konvergieren des Bildes auf zu rechnen. Der adaptive Sampler soll so dafür sorgen, dass schneller ein besseres Bild erzeugt wird und somit die Performanz gesteigert wird. Insgesamt erwartet man sich vom adaptiven Sampler Vorteile bei der Berechnung von bestimmten Szenen. Unter anderem eine Verbesserung bei Szenen mit rein diffus beleuchteten Bildbereichen, sowie eine Verbesserung bei Szenen mit unterschiedlich rechenintensiven Bildbereichen. Ein normaler Raytracer kann nicht beurteilen, wie sinnvoll seine Schüsse sind. Er kann nur mehr Strahlen verschießen, in der Hoffnung, das Bild damit effektiv zu verbessern.
Es gibt jedoch viele Szenarien, bei denen eine linear steigende Schussanzahl pro Pixel keine gleichmäßige Verbesserung im Bild erzeugt. Das bedeutet, dass Bereiche im Bild schon gut aussehen, während andere noch sehr verrauscht sind. Man möchte nun Bildbereiche, die bereits konvergiert sind, in denen sich ein weiterer Beschuss also nicht mehr bemerkbar macht, ausschließen und die Rechenleistung dort nutzen, wo man sie noch braucht.
Wichtig dabei ist, dass Pixel nicht ungewollt zu früh von der Berechnung ausgeschlossen werden, die nicht weit genug konvergiert sind. Der adaptive Sampler soll so lange arbeiten, bis jeder Pixel dauerhaft keine Änderungen mehr vorweist. Das bedeutet, dass die Wahrscheinlichkeit für eine signifikante Farbänderung eines Pixels durch Verschießen eines Strahls (bei mehreren Lichtquellen in RenderGin mehrere Strahlen pro Pixel) klein genug ist. Es wird zwar intern keine Wahrscheinlichkeit berechnet, jedoch bekommt der Raytracer eine Art Gedächtnis: Er speichert die Veränderungen im beleuchteten Bild und deren Verlauf in eigenen Gedächtnisbildern. Das "Gedächtnis" für das alte Bild (Zustand des Bildes in der letzten Iteration über die Pixel) repräsentiert dabei das Kurzzeitgedächtnis. Es ist absolut genau. Das Langzeitgedächtnis wird von drei verschiedenen Bildern repräsentiert. Das erste gibt die Anzahl der verschossenen Strahlen pro Pixel an. Das zweite ist ein Wahrheitswertebild, das für jeden Pixel angibt, ob dieser noch in die Berechnung einbezogen werden soll. Das dritte Bild gibt an, wie oft jeder Pixel eine Farbänderung vollzogen hat, die geringer ist als der geforderte Maximalabstand eines Pixels zu sich selbst (vor und nach dem Verschießen eines weiteren Strahls).
Mit diesen drei Bildern ist es möglich, zusätzliche quantitative Informationen zu den qualitativen Informationen des Vergleichs vom neuen und alten Bild zu berücksichtigen.
In dieser Arbeit kläre ich die Frage, ob die gewünschten Effekte eintreten und ob bei Integration in die bestehende Struktur von RenderGin ein Performanzgewinn möglich ist. Die Umsetzung eines adaptiven Samplers ist als Plug-In in der Software RenderGin von Numenus GmbH geschehen. RenderGin ist ein echtzeitfähiger, progressiver Raytracer, der sich durch seine Performanz auszeichnet. Die Bildgenerierung geschieht allein auf der CPU, die Grafikkarte wird lediglich zur Anzeige des erzeugten Bildes benötigt.
Die Umsetzung und Programmierung des Plug-Ins ist in Microsoft Visual Studio 2010 geschehen unter Verwendung des RenderGin SDK der Numenus GmbH.
Zahlreiche Studien belegen, dass menschliche Bewegungen Informationen über den Akteur in sich bergen. Beobachter sind daher in der Lage, Dinge wie Persönlichkeit, Geschlecht und Gefühlslage allein aus Bewegungen von Menschen zu erkennen. Um dem Ziel nach glaubwürdigen und realistischen virtuellen Charakteren näher zu kommen, verbesserte sich in den letzten Jahren vorwiegend das Aussehen der Charaktere. Dank moderner Techniken und einer rapiden Entwicklung der Computer Hardware können heute visuell extrem realistische Charaktere in virtuellen Echtzeitumgebungen dargestellt werden. Trotz ihrer visuellen Qualität werden sie jedoch in interaktiven Umgebungen häufig als mechanisch wahrgenommen. Diese Störung der Illusion, einem lebendigen, Menschen ähnlichem Lebewesen gegen über zu stehen ist in einem mangelndem menschlichen Verhalten des virtuellen Charakters begründet. Daher können ausdrucksvolle Bewegungen, die einen emotionalen Zustand des Charakters vermitteln, dazu verhelfen dem Menschen ähnlichere und daher glaubwürdigere Charaktere zu realisieren. Im Rahmen dieser Diplomarbeit wird die Umsetzbarkeit eines Systems zur automatischen Generierung emotional expressiver Charakter Animationen untersucht. Übliche Techniken zur Erstellung von Animationen sind sehr aufwendig und zeitintensiv. Um alle möglichen Variationen von Bewegungen in einer interaktiven Umgebung zu erstellen kommen solche Ansätze daher nicht in Frage. Um interaktive Charakter zu ermöglichen, welche in der Lage sind ihre Gefühle zum Ausdruck zu bringen, wird daher diese Problematik im Zuge dieser Diplomarbeit behandelt werden. Einschlägige Literatur aus Forschungsgebieten, welche sich mit Emotionen und Bewegungen befassen werden im Rahmen dieser Arbeit untersucht. Eigenschaften, anhand derer Menschen Emotionen in Bewegungen erkennen, werden technisch in einem Animationssystem umgesetzt, um aus neutralen Animationen emotionale Bewegungen zu generieren. Abschliessend werden die erstellten Ergebnisanimationen in Tests ausgewertet in Bezug auf Erkennbarkeit der Emotionen und Qualität der Ergebnisse.
Semantic descriptions of non-textual media available on the web can be used to facilitate retrieval and presentation of media assets and documents containing them. While technologies for multimedia semantic descriptions already exist, there is as yet no formal description of a high quality multimedia ontology that is compatible with existing (semantic) web technologies. We explain the complexity of the problem using an annotation scenario. We then derive a number of requirements for specifying a formal multimedia ontology, including: compatibility with MPEG-7, embedding in foundational ontologies, and modularisation including separation of document structure from domain knowledge. We then present the developed ontology and discuss it with respect to our requirements.
Ein Switch (engl. Schalter; auch Weiche) ist eine Netzwerk-Komponente zur Verbindung mehrerer Computer bzw. Netz-Segmente in einem lokalen Netzwerk (LAN). Da Switches den Netzwerkverkehr analysieren und logische Entscheidungen treffen, werden sie auch als intelligente Hubs bezeichnet. Die Funktionsweise eines Switches ist der einer Bridge sehr ähnlich, daher wurde anfangs auch der Begriff Multi-Port-Bridge genutzt 1. Ziel der Diplomarbeit ist es, eine Dokumentation auf die Beine zu stellen, der interessierten Studenten der Informationstechnologie die Möglichkeit bietet, einerseits anhand von physikalischen Switches Administrationsaufgaben nachzuempfinden und andererseits anhand von virtuellen Switches größere Netzwerktopologien aufzubauen. Diese Virtualisierung wird durch das von Virtual Square entwickelte Tool VDE erreicht. Die physikalischen Switches bestehen aus vier Catalyst 3500 XL. Im Laufe dieser Arbeit wird sowohl die Bedienung der einzelnen Systeme untereinander, wie auch die Vernetzung der virtuellen Switches mit den physikalischen Switches erläutert. In diesem Zusammenhang wird auch auf Protokolle und Methoden wie das Spanning Tree Protokoll oder die Virtualisierung eines Netzes durch VLANs eingegangen. Zum Schluss kann der Leser das gelernte in einigen praktischen Aufgaben anwenden.
Das Just-in-Time - Verfahren ist ein neues Unterrichtskonzept aus den USA (auch in D. schon z.T. eingesetzt), bei dem ein oder zwei Tage vor der Unterrichtsstunde Fragen hauptsächlich zu qualitativem und konzeptuellem Verständnis an die SchülerInnen gestellt und von diesen per eMail beantwortet werden. Aus den Lösungen wird dann von der Lehrkraft eine Folie mit falschen und richtigen Vorschlägen erstellt (i.a. anonym), die dann in der Klasse diskutiert werden. Die besonderen Vorteile des Verfahrens sind: Adaptiver Unterricht mit kurzfristiger ("just-in-time") Reaktionsmöglichkeit auf Präkonzepte und andere Lernschwierigkeiten; Förderung der Selbsttätigkeit und Eigenverantwortung für die eingesendeten Beiträge; Schaffung einer schriftlichen (eMail-Beitrag) und mündlichen (Diskussion) Gelegenheit zur Spracharbeit an fachlichen Inhalten. Das Lernarrangement Die über Webspace verfügende Lehrkraft lädt eine themenrelevante Aufgabe ins Internet. Diese Aufgabe ist von den SchülerInnen ihres Kurses am Computer zu Hause zu bearbeiten; die Bearbeitung wird über ein Formularfenster als Mail an die Lehr-kraft gesendet. Mit den Statements ihrer SchülerInnen im Kopf begibt sich die Lehrkraft nun an die Planung der folgenden Unterrichtsstunde: Insbesondere werden die interessantesten Statements auf TLP-Folie kopiert . Sie bilden den roten Faden der in Planung befindlichen Unterrichtsstunde. Die Schülerantworten sind also zum einen Planungsgrundlage für die folgende Unterrichtsstunde, zum anderen werden sie zu einem besonderen Unterrichtsmedium des JiTT-Verfahrens (Folie o.ä. mit den interessantesten Statements). Der Unterrichtsverlauf enthält Phasen, in denen die Schüleraussagen gelesen, erörtert und diskutiert werden sowie Phasen, in denen die Gruppe mit üblichen Unterrichtsmedien und -methoden (Arbeitsblätter, Versuche) arbeitet. Im Idealfalle reduziert sich die Rolle des Lehrers in der Diskussionsphase auf die eines Moderators. Fachdidaktische und instruktionspsychologische Begründung JiTT kann als besondere Form des Adaptiven Unterrichts aufgefasst werden: Der Lehrkraft ist es möglich, insbesondere auf vorhandene Präkonzepte und andere Lernschwierigkeiten in adäquater Form zu reagieren und ihren Unterricht zu gestalten. Das Verfahren kann des weiteren auf der Ebene der Motivation wirksam sein, indem Selbstbestimmung (Mitgestaltung des Unterrichtes!) und soziale Einbindung (Diskussion der Schülerbeiträge in der Gruppe!) in besonderer Weise gefördert und gefordert werden. Selbstbestimmung und soziale Einbindung sind aber (zusammen mit Kompetenz) Hauptfaktoren in einer der führenden Theorien der Motivationspsychologie (Selbstbestimmungstheorie nach DECI & RYAN). Bemerkungen zum Design der Feldstudie In den Hauptteil der Feldstudie des Projektes zur Evaluation des Verfahrens waren zwei Physik-Leistungskurse eines rheinland-pfälzischen Gymnasiums (Teilgebiete "Mechanik" und "Elektrodynamik") eingebunden, ein Ergänzungsteil wurde im Rahmen einer Mechanik-Vorlesung des Lehramtsstudiums Physik an einer rheinland-pfälzischen Universität realisiert. Das erhobene Datenmaterial wurde insbesondere mit Hilfe des Verfahrens der multivariaten, hierarchischen Regressionsanalyse evaluiert. Ergebnis der Feldstudie und Diskussion Ein relevanter Effekt des JiTT-Verfahrens auf die Performanz der Lernenden kann nicht nachgewiesen werden. Im Hinblick auf mögliche Erklärungsmuster erscheinen folgende Aspekte von Bedeutung: Im Zuge der adäquaten Berücksichtigung von Schülervorstellungen ist es ausreichend, die "Mainstream-Päkonzepte" der Lernenden zu kennen. Detaillierte-res Wissen führt zu keinem signifikant erfolgreicheren Unterricht; Die vergleichsweise offen gestalteten JiTT-Phasen des Unterrichts scheinen insbesondere die leistungsschwächeren Lernenden zu überfordern; Ein eventuell doch vorhandener, auf JiTT zurückführbarer Einfluss auf die Performanz wird durch die Effizienz des im Unterricht eingesetzten methodischen Werkzeugs der Modellbildung überdeckt. Im Hinblick auf die motivationalen Einstellungen der Lernenden erscheint bemer-kenswert, dass man in JiTT zwar durchaus eine Bereicherung für den Unterricht sieht, dem gewachsenen zeitlichen Druck sowie den erweiterten Kontrollmöglichkeiten seitens der Lehrkraft jedoch kritisch gegenübersteht. Somit ist zweifelhaft, ob es durch den Einsatz des Verfahrens tatsächlich zu einer Verstärkung der autonom regulierten Varianten der Motivation kommt.
Advanced Auditing of Inconsistencies in Declarative Process Models using Clustering Algorithms
(2021)
Um einen konformen Geschäftsprozess einer Organisation zu haben, ist es unerlässlich, eine konsistente Entscheidungsprozess sicherzustellen. Das Maß für die Überprüfung, ob ein Prozess konsistent ist oder nicht, hängt von den Geschäftsregeln eines Prozesses ab. Wenn der Prozess diesen Geschäftsregeln entspricht, ist der Prozess konform und effizient. Für große Prozesse ist dies eine ziemliche Herausforderung. Eine Inkonsistenz in einem Prozess kann sehr schnell zu einem nicht funktionierenden Prozess führen. Diese Arbeit präsentiert einen neuartigen Auditing-Ansatz für den Umgang mit Inkonsistenzen aus einer Post-Execution-Perspektive. Das Tool identifiziert die Laufzeitinkonsistenzen und visualisiert diese in Heatmaps. Diese Diagramme sollen Modellierern dabei helfen, die problematischsten Einschränkungen zu beobachten und die richtigen Umbauentscheidungen zu treffen. Die mit vielen Variablen unterstützten Modellierer können im Tool so eingestellt werden, dass eine andere Darstellung von Heatmaps angezeigt wird, die dabei hilft, alle Perspektiven des Problems zu erfassen. Die Heatmap sortiert und zeigt die Inkonsistenzmuster zur Laufzeit, sodass der Modellierer entscheiden kann, welche Einschränkungen sehr problematisch sind und eine Neumodellierung angehen sollten. Das Tool kann in angemessener Laufzeit auf reale Datensätze angewendet werden.
The formulation of the decoding problem for linear block codes as an integer program (IP) with a rather tight linear programming (LP) relaxation has made a central part of channel coding accessible for the theory and methods of mathematical optimization, especially integer programming, polyhedral combinatorics and also algorithmic graph theory, since the important class of turbo codes exhibits an inherent graphical structure. We present several novel models, algorithms and theoretical results for error-correction decoding based on mathematical optimization. Our contribution includes a partly combinatorial LP decoder for turbo codes, a fast branch-and-cut algorithm for maximum-likelihood (ML) decoding of arbitrary binary linear codes, a theoretical analysis of the LP decoder's performance for 3-dimensional turbo codes, compact IP models for various heuristic algorithms as well as ML decoding in combination with higher-order modulation, and, finally, first steps towards an implementation of the LP decoder in specialized hardware. The scientific contributions are presented in the form of seven revised reprints of papers that appeared in peer-reviewed international journals or conference proceedings. They are accompanied by an extensive introductory part that reviews the basics of mathematical optimization, coding theory, and the previous results on LP decoding that we rely on afterwards.
Despite the inception of new technologies at a breakneck pace, many analytics projects fail mainly due to the use of incompatible development methodologies. As big data analytics projects are different from software development projects, the methodologies used in software development projects could not be applied in the same fashion to analytics projects. The traditional agile project management approaches to the projects do not consider the complexities involved in the analytics. In this thesis, the challenges involved in generalizing the application of agile methodologies will be evaluated, and some suitable agile frameworks which are more compatible with the analytics project will be explored and recommended. The standard practices and approaches which are currently applied in the industry for analytics projects will be discussed concerning enablers and success factors for agile adaption. In the end, after the comprehensive discussion and analysis of the problem and complexities, a framework will be recommended that copes best with the discussed challenges and complexities and is generally well suited for the most data-intensive analytics projects.
Der Verlust der Biodiversität wird sowohl auf einer globalen Skala als auch für die anthropogen geformten Landschaften, die heute fast 50% der terrestrischen Landfläche ausmachen, festgestellt. Auf den landwirtschaftlichen Anbauflächen werden Pestizide, biologisch aktive Chemikalien, ausgebracht um Schädlinge, Krankheiten und Unkräuter zu kontrollieren. Um die Auswirkung der Pestizide auf die Biodiversität zu verstehen ist die Quantifizierung der verbliebenen semi-natürlichen Strukturen wie Feldsäume und Hecken, die Organismen in Agrarlandschaften als Habitat dienen, eine Voraussetzung. Für eine Abschätzung ihrer potentiellen Pestizidexposition ist zudem die Anwesenheit der Organismen in diesen Habitaten und in den Feldkulturen notwendig. Im vorliegenden Text stelle ich Studien für Tiergruppen wie Amphibien, Fledermäuse und Motten vor, die bisher nicht in der Risikobewertung für Pestizide berücksichtigt worden sind. Für alle Gruppen wurde dargelegt, dass sie sowohl in der Agrarlandschaft leben als auch potentiell mit Pestiziden in Kontakt kommen und daher ein Risiko angezeigt ist. Für die Risikobetrachtung sind auch Informationen zur Empfindlichkeit der Organismen notwendig und hier werden neue Daten für Pflanzen, Amphibien und Bienen vorgestellt. Effekte die bis auf die Gemeinschaftsebene wirksam waren, wurden für die Auswirkungen von Herbizid, Insektizid und Dünger in einem natürlichen System betrachtet. Das Ergebnis nach drei Behandlungsjahren waren vereinfachte Pflanzengemeinschaften mit geringerer Artenzahl und einer reduzierten Anzahl von Blütenpflanzen. Die Abnahme an Blüten stellt ein Beispiel eines indirekten Effekts dar und war für die Effekte eines Herbizids auf den scharfen Hahnenfuß besonders auffällig. Subletale Herbizideffekte für Pflanzen hatten einen Einfluss auf daran fressende Raupen was durch eine Verminderung der Nahrungsqualität erklärbar ist. Für Feldsäume realistische Insektizidmengen reduzierten die Bestäubung der weißen Lichtnelke durch Motten um 30%. Diese indirekten Effekte durch Veränderungen im Nahrungsnetz spielen eine kritische Rolle für das Verständnis des Rückgangs von verschiedenen Organismengruppen, allerdings werden sie bisher nicht in die Risikobewertung von Pestiziden mit einbezogen. Der aktuelle intensive Pestizideinsatz in der Landwirtschaft und ihre hohe Toxizität könnten zu einer chemisch fragmentierten Landschaft führen in der Population nicht mehr verbunden sind und damit deren Größe und genetische Struktur beeinflussen. Die Modellierung von möglichen Pestizideffekten als Kosten für die Anwanderung von Amphibien zu Fortpflanzungsgewässern in Weinbergen in Rheinland-Pfalz zeigte die Isolation der untersuchten Populationen an. Eine erste Validierung für den Grasfrosch bestätigte die Modellvorhersagen für einige Populationen. Für den terrestrischen Bereich der Risiko-bewertung ist eine Vielzahl von Richtlinien vorhanden oder wird aktuell entwickelt oder verbessert. Die Ergebnisse der vorliegenden Arbeiten zeigen, dass vor allem die reproduktiven Blütenstadien von Pflanzen sehr empfindlich sind und ihr Risiko unterschätz ist. Die Erholung von Arthropodenpopulationen nach Pestizideffekten muss auf Landschafts-ebene neu bemessen werden und eine Risikobewertung für Amphibien für die Zulassung wird vorgeschlagen. Die Etablierung und Anpassung von Risikobewertungssystemen ist allerdings ein zeitaufwändiger Prozess und daher stellt die Entwicklung von Risikomanagementmaßnahmen eine pragmatische Alternative mit unmittelbaren Auswirkungen dar. Künstliche Gewässer der Agrarlandschaft sind wichtige Nahrungsgebiete für Fledermäuse und ihre Anlage würde negative Auswirkungen des Pestizideinsatzes abschwächen. Die Einbindung von direkten und indirekten Effekten für alle Organismengruppen in eine Risikobewertung in der auch der Landschaftsmaßstab und Pestizidmischungen betrachtet werden wird viel Entwicklungszeit benötigen. Die Etablierung von Modellandschaften in der Managementmaßnahmen und integrierter Pflanzenschutz auf größerer Skala angewendet werden, würde es uns jedoch erlauben die Auswirkungen von Pestiziden in einem realistischen Szenario zu untersuchen und Ansätze für die Landwirtschaft der Zukunft zu entwickeln.
The use of agricultural plastic covers has become common practice for its agronomic benefits such as improving yields and crop quality, managing harvest times better, and increasing pesticide and water use efficiency. However, plastic covers are suspected of partially breaking down into smaller debris and thereby contributing to soil pollution with microplastics. A better understanding of the sources and fate of plastic debris in terrestrial systems has so far been hindered by the lack of adequate analytical techniques for the mass-based and polymer-selective quantification of plastic debris in soil. The aim of this dissertation was thus to assess, develop, and validate thermoanalytical methods for the mass-based quantification of relevant polymers in and around agricultural fields previously covered with fleeces, perforated foils, and plastic mulches. Thermogravimetry/mass spectrometry (TGA/MS) enabled direct plastic analyses of 50 mg of soil without any sample preparation. With polyethylene terephthalate (PET) as a preliminary model, the method limit of detection (LOD) was 0.7 g kg−1. But the missing chromatographic separation complicated the quantification of polymer mixtures. Therefore, a pyrolysis-gas chromatography/mass spectrometry (Py-GC/MS) method was developed that additionally exploited the selective solubility of polymers in specific solvents prior to analysis. By dissolving polyethylene (PE), polypropylene (PP), and polystyrene (PS) in a mixture of 1,2,4-trichlorobenzene and p-xylene after density separation, up to 50 g soil became amenable to routine plastic analysis. Method LODs were 0.7–3.3 mg kg−1, and the recovery of 20 mg kg−1 PE, PP, and PS from a reference loamy sand was 86–105%. In the reference silty clay, however, poor PS recoveries, potentially induced by the additional separation step, suggested a qualitative evaluation of PS. Yet, the new solvent-based Py-GC/MS method enabled a first exploratory screening of plastic-covered soil. It revealed PE, PP, and PS contents above LOD in six of eight fields (6% of all samples). In three fields, PE levels of 3–35 mg kg−1 were associated with the use of 40 μm thin perforated foils. By contrast, 50 μm PE films were not shown to induce plastic levels above LOD. PP and PS contents of 5–19 mg kg−1 were restricted to single observations in four fields and potentially originated from littering. The results suggest that the short-term use of thicker and more durable plastic covers should be preferred to limit plastic emissions and accumulation in soil. By providing mass-based information on the distribution of the three most common plastics in agricultural soil, this work may facilitate comparisons with modeling and effect data and thus contribute to a better risk assessment and regulation of plastics. However, the fate of plastic debris in the terrestrial environment remains incompletely understood and needs to be scrutinized in future, more systematic research. This should include the study of aging processes, the interaction of plastics with other organic and inorganic compounds, and the environmental impact of biodegradable plastics and nanoplastics.
In dieser Arbeit wurde der Einfluss von nicht wässrigen Mahlflüssigkeiten auf Metall-Keramik-Pulvermischungen im Nassmahlprozess untersucht. Es wurden Al- und Cr-Al₂O₃-Pulvermischungen ausgewählt, um den Einfluss der Mahlflüssigkeiten auf die Mahlung von Metall-Keramik-Pulvermischungen mit einer duktilen (Aluminium) und einer spröden (Chrom) Metallkomponente zu untersuchen.
Graphen sind eine gute Wahl um strukturierte Daten zu repräsentieren. TGraphen (typisierte, attributierte, geordnete und gerichtete Graphen) sind eine sehr generische Graphenart, die in vielen Bereichen verwendet werden können. Das Java Graphenlabor (JGraLab) bietet eine effiziente Implementierung von TGraphen mit all ihren Eigenschaften. Zusätzlich stellt es, unter anderem, die Anfragesprache GReQL2 zur Verfügung, die dazu verwendet werden kann, Daten aus einem Graphen zu extrahieren. Es verfügt jedoch nicht über eine generische Bibliothek von gängigen Graphalgorithmen. Diese Studienarbeit ergänzt JGraLab durch eine generische Algorithmenbibliothek namens Algolib, die eine generische und erweiterbare Implementierung einiger wichtiger gängiger Graphalgorithmen enthält. Das Hauptaugenmerk dieser Arbeit liegt auf der Generizität von Algolib, ihrer Erweiterbarkeit und der Methoden der Softwaretechnik die benutzt wurden um beides zu erreichen. Algolib ist auf zwei Weisen erweiterbar. Bereits enthaltene Algorithmen können erweitert werden um speziellere Probleme zu lösen und weitere Algorithmen können auf einfache Weise der Bibliothek hinzugefügt werden.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
In den letzten Jahrzehnten wurde deutlich, dass die Welt mit einer beispiellosen, vom Menschen verursachten Biodiversitätskrise konfrontiert ist. Eine der am stärksten bedrohten Artengruppen stellen dabei die Amphibien dar, so gelten laut IUCN 41% der Amphibienarten als gefährdet. Jedoch können selbst bei Arten die als "least concern" klassifiziert sind Populationsrückgänge auf lokaler Ebene beobachtet werden. Mit einer veränderten Landnutzung und dem Einsatz von Pestiziden sind zwei der Hauptursachen für diese Gefährdung direkt mit intensiver Landwirtschaft verbunden. Daher ist das Wissen um die Situation von Amphibien in der Agrarlandschaft von entscheidender Bedeutung für Schutzmaßnahmen. In der vorliegenden Arbeit wurden Amphibienpopulationen in der durch Weinbau geprägten Gegend um Landau in der Pfalz (Deutschland) im Hinblick auf Lebensraumnutzung, Pestizidexposition, biometrische Merkmale sowie der Alters- und genetischer Populationsstruktur untersucht. Da Agrarflächen oft zur Fragmentierung von Landschaften führen, ging ich der Frage nach ob dies auch auf Weinberge zutrifft und ob eingesetzte Pestizide zur Fragmentierung beitragen, ob also eine chemische Landschaftsfragmentierung vorliegt. Durch die Telemetrierung von Erdkröten (Bufo bufo) konnte ich zeigen, dass diese Art direkt in Weinbergen gefunden werden kann, diese aber generell eher meidet. Die Analyse der genetischen Struktur von Grasfröschen (Rana temporaria) ergab, dass Weinberge als Barriere für Amphibien anzusehen sind. Um herauszufinden, ob Pestizide zu der daraus resultierenden Landschaftsfragmentierung beitragen, führte ich einen Wahlversuch im Labor durch, bei dem ich ein Vermeidungsverhalten gegenüber kontaminierten Böden fand, was zu einer chemischen Landschaftsfragmentierung führen könnte. Durch die Kombination von Telemetriedaten mit Daten über Pestizidanwendungen von lokalen Winzern konnte ich zeigen, dass ein großer Teil der Erdkröten mit Pestiziden in Kontakt kommt. Außerdem konnte gezeigt werden, dass sich die Agrarlandschaft und hier wahrscheinlich Pestizide negativ auf die Fortpflanzungsfähigkeit von Erdkröten auswirkt. Bei der Untersuchung von Fadenmolchen (Lissotriton helveticus) stellte ich fest, dass adulte Molche aus Gewässern in der Agrarlandschaft kleiner sind als Individuen aus Gewässern im Wald. Da kein Unterschied in der Altersstruktur festgestellt werden konnte, könnten diese Größenunterschiede auf suboptimale Bedingungen für Larven und/oder Jungtiere hindeuten, wenngleich Gewässer in der Agrarlandschaft geeignete Lebensräume für adulte Teichmolche sein könnten. Ich komme zu dem Schluss, dass die beste Maßnahme zum Schutz von Amphibien in der Agrarlandschaft eine heterogene Kulturlandschaft mit einem Mosaik aus verschiedenen Lebensräumen wäre, die ohne oder zumindest mit weniger Pestiziden auskommt. Grüne Korridore zwischen Populationen und Teillebensräumen würden es wandernden Individuen ermöglichen, landwirtschaftliche und damit pestizidbelastete Flächen zu vermeiden. Dies würde das Risiko der Pestizidexposition von Amphibien verringern und gleichzeitig die Fragmentierung der Landschaft und damit die Isolation von Populationen verhindern.
With 47% land coverage in 2016, agricultural land was one of the largest terrestrial biomes in Germany. About 70% of the agricultural land was cropped area with associated pesticide applications. Agricultural land also represents an essential habitat for amphibians. Therefore, exposure of amphibians to agrochemicals, such as fertilizers and pesticides, seems likely. Pesticides can be highly toxic for amphibians, even a fraction of the original application rate may result in high amphibian mortality.
To evaluate the potential risk of pesticide exposure for amphibians, the temporal coincidence of amphibian presence on agricultural land and pesticide applications (N = 331) was analyzed for the fire-bellied toad (Bombina bombina), moor frog (Rana arvalis), spadefoot toad (Pelobates fuscus) and crested newt (Triturus cristatus) during spring migration. In 2007 and 2008, up to 80% of the migrating amphibians temporally coincided with pesticide applications in the study area of Müncheberg, about 50 km east of Berlin. Pesticide interception by plants ranged between 50 to 90% in winter cereals and 80 to 90% in winter rape. The highest coincidence was observed for the spadefoot toad, where 86.6% of the reproducing population was affected by a single pesticide in winter rape during stem elongation with 80% pesticide interception by plants. Late migrating species, such as the fire-bellied toad and the spadefoot toad, overlapped more with pesticide applications than early migrating species, such as the moor frog, did. Under favorable circumstances, the majority of early migrants may not coincide with the pesticide applications of arable fields during spring migration.
To evaluate the potential effect of pesticide applications on populations of the common frog (Rana temporaria), a landscape genetic study was conducted in the vinicultural area of Southern Palatinate. Due to small sample sizes at breeding sites within viniculture, several DNA sampling methods were tested. Furthermore, the novel repeated randomized selection of genotypes approach was developed to utilize genetic data from siblings for more reliable estimates of genetic parameters. Genetic analyses highlighted three of the breeding site populations located in viniculture as isolated from the meta-population. Genetic differentiation among breeding site populations in the viniculture (median pairwise FST=0.0215 at 2.34 km to 0.0987 at 2.39 km distance) was higher compared to genetic differentiation among breeding site populations in the Palatinate Forest (median pairwise FST=0.0041 at 5.39 km to 0.0159 at 9.40 km distance).
The presented studies add valuable information about the risk of pesticide exposure for amphibians in the terrestrial life stage and possible effects of agricultural land on amphibian meta-populations. To conserve endemic amphibian species and their (genetic) diversity in the long run, the risk assessment of pesticides and applied agricultural management measures need to be adjusted to protect amphibians adequately. In addition, other conservation measures such as the creation of new suitable breeding site should be considered to improve connectivity between breeding site populations and ensure the persistence of amphibians in the agricultural land.
Klassische Fahrerassistenzsysteme (FAS) wie beispielsweise der Spurassistent oder das weit verbreitete Elektronische Stabilitätsprogramm basieren auf statischen System- und Softwarearchitekturen. Dies bedeutet, dass weder die Anzahl oder Topologie der Steuergeräte noch das Vorhandensein oder die Funktionalität von Softwaremodulen Änderungen zur Laufzeit unterliegen. Es existieren allerdings zukünftige FAS, bei denen solche Veränderungen eintreten können. Hierzu gehören beispielsweise Assistenzsysteme für Fahrzeuge mit Anhänger, da deren Steuergeräte und Softwaremodule über beide Teile des Gespanns verteilt sind. Diese neue Herausforderung kann nicht durch Ansätze, die zum Stand der Technik gehören, bewältigt werden. Stattdessen muss ein neuartiges Verfahren für das Design von solch verteilten Fahrerassistenzsystemen entwickelt werden.
Der zentrale wissenschaftliche Beitrag dieser Arbeit liegt in der Entwicklung einer neuartigen Software- und Systemarchitektur für dynamisch veränderliche FAS am Beispiel der Assistenzsysteme für Fahrzeuge mit Anhänger. Diese Architektur muss in der Lage sein, Veränderungen in der Topologie eigenständig zu erkennen und darauf zu reagieren. Hierbei entscheidet das System, welcher Grad der Assistenz und welche Nutzerschnittstelle nach dem An- oder Abkoppeln eines Anhängers angeboten werden kann. Hierzu werden neben der verfügbaren Software und Hardware die ausführbaren Assistenzfunktionalitäten analysiert und eine entsprechende Re-Konfiguration durchgeführt. Eine solche Systemanpassung kann vorgenommen werden, indem man auf die Prinzipien der Service-orientierten Architektur zurückgreift. Hierbei wird alle vorhandene Funktionalität in abgeschlossene Einheiten, so genannte Services gegossen. Diese Services stellen ihre Funktionalität über klar definierte Schnittstellen zur Verfügung, deren Verhalten durch so genannte Contracts beschrieben wird. Größere Applikationen werden zur Laufzeit durch den Zusammenschluss von mehreren solcher Services gebildet und adaptiert.
Die Arbeit beschreibt die Forschung die geleistet wurde, um die oben genannten Ziele durch den Einsatz von Service-orientierten Architekturen im automotiven Umfeld zu erreichen. Hierbei wird dem hohen Grad an Verteilung, dem Wunsch nach Wiederverwendbarkeit sowie der Heterogenität der einzelnen Komponenten durch den Einsatz der Prinzipien einer SOA begegnet. Weiterhin führt das Service-orientierte System eine automatische Re-Konfiguration im Falle einer Systemänderung durch. Statt eines der vorhandenen SOA Frameworks an die Verhältnisse im automotiven Umfeld anzupassen werden die einzelnen in SOA enthaltenen Prinzipien auf die Problemstellung angepasst. Hierbei entsteht ein eigenständiges Framework namens "Service-oriented Driver Assistance" (SODA) welches die Vorteile einer SOA mit den Anforderungen, bewährten Methoden und Standards vereint. Im Rahmen dieser Arbeit werden verschiedene SOA Frameworks analysiert und miteinander vergleichen. Außerdem wird das SODA Framework sowie dessen Anpassungen bezüglich automotiver Systeme detailliert beschrieben. Hierzu zählt auch ein Referenzmodell, welches die Begrifflichkeiten und Konzepte einführt und zueinander in Beziehung setzt sowie eine Referenzarchitektur definiert. Einige der Module dieser Referenzarchitektur wie beispielsweise das Re-Konfigurations- und das Kommunikationsmodul werden sehr detailiert in eigenen Kapiteln beschrieben. Um die Kompatibilität des Frameworks sicherzustellen wird die Integration in einen bewährten Entwicklungsprozess sowie in den Architekturstandard AUTOSAR diskutiert. Abschließend wird der Aufbau eines Demonstrators und dessen Evaluation bezüglich der Leistungsfähigkeit und Effizienz des Frameworks beschrieben.
Um unterschiedliche Anforderungen zu erfüllen, werden Softwaresysteme oft in Form einer Menge von Varianten entwickelt. Zwei gebräuchliche Ansätze für eine solche Softwareentwicklung sind das clone-and-owning und die Produktlinienentwicklung. Beide Ansätze haben Vor- und Nachteile. In vorheriger Arbeit mit anderen haben wir eine Idee vorgestellt bei der beide Ansätze verknüpft werden um Varianten, Ähnlichkeiten und Softwareklone zu verwalten. Diese Idee basiert auf einer virtuellen Plattform und Operatoren für Softwareklone. In der vorliegenden Arbeit stellen wir einen Ansatz vor um essentielle Metadaten für die Realisierung eines propagate-Operators zu aggregieren. Dafür haben wir ein System entwickelt um Ähnlichkeiten mit Annotationen zu versehen, wobei die Ähnlichkeiten aus der Historie eines Repositories extrahiert werden. Die Annotationen drücken aus wie eine Ähnlichkeit zukünftig gewartet werden soll. Abhängig vom Annotationstyp kann diese Wartung automatisiert ausgeführt oder sie muss vom Benutzer manuell betrieben werden. In dieser Arbeit beschreiben wir die automatisierte Extraktion von Metadaten und das System zur Annotation von Ähnlichkeiten; wir erklären wie das System in den Arbeitsfluss eines bestehenden Programms zur Versionierungverwaltung (Git) integriert werden kann; und abschließend stellen wir eine Fallstudie vor, die das 101haskell-System benutzt.
As Enterprise 2.0 (E2.0) initiatives are gradually moving out of the early experimentation phase it is time to focus greater attention on examining the structures, processes and operations surrounding E2.0 projects. In this paper we present the findings of an empirical study to investigate and understand the reasons for initiating E2.0 projects and the benefits being derived from them. Our study comprises seven in-depth case studies of E2.0 implementations. We develop a classification and means of visualising the scope of E2.0 initiatives and use these methods to analyse and compare projects.
Our findings indicate a wide range of motivations and combinations of technology in use and show a strong emphasis towards the content management functionality of E2.0 technologies.
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.