Filtern
Erscheinungsjahr
- 2013 (23) (entfernen)
Dokumenttyp
- Dissertation (10)
- Bachelorarbeit (4)
- Ausgabe (Heft) zu einer Zeitschrift (4)
- Masterarbeit (2)
- Konferenzveröffentlichung (1)
- Diplomarbeit (1)
- Habilitation (1)
Sprache
- Englisch (23) (entfernen)
Schlagworte
- Pflanzenschutzmittel (3)
- ABox (1)
- Abduktion <Logik> (1)
- Agrochemikalien (1)
- Bach (1)
- Boden (1)
- Bodenchemie (1)
- Bodenökologie (1)
- C++ (1)
- Calculus (1)
Diese Arbeit befasst sich mit der Evaluation verschiedener Erste Hilfe Applikationen für Smartphones. Diese werden mit der App "DefiNow!", welche von der Universität Koblenz entwickelt wurde, verglichen. Hierbei liegt der Schwerpunkt der Evaluation auf der Usability basierend auf den Softwareergonomischen Prinzipien der Iso Norm 9241-110.
Eine Usability Studie mit 74 Teilnehmern wurde durchgeführt und die daraus resultierenden Ergebnisse genutzt um die bestehende App "Defi Now!" hinsichtlich ihrer Usability zu optimieren.
Wir präsentieren die konzeptuellen und technologischen Grundlagen einer verteilten natürlich sprachlichen Suchmaschine, die einen graph-basierten Ansatz zum Parsen einer Anfrage verwendet. Das Parsing-Modell, das in dieser Arbeit entwickelt wird, generiert eine semantische Repräsentation einer natürlich sprachlichen Anfrage in einem 3-stufigen, übergangsbasierten Verfahren, das auf probabilistischen Patterns basiert. Die semantische Repräsentation einer natürlich sprachlichen Anfrage wird in Form eines Graphen dargestellt, der Entitäten als Knoten und deren Relationen als Kanten repräsentiert. Die präsentierte Systemarchitektur stellt das Konzept einer natürlich sprachlichen Suchmaschine vor, die sowohl in Bezug auf die einbezogenen Vokabulare, die zum Parsen der Syntax und der Semantik einer eingegebenen Anfrage verwendet werden, als auch in Bezug auf die Wissensquellen, die zur Gewinnung von Suchergebnissen konsultiert werden, unabhängig ist. Diese Funktionalität wird durch die Modularisierung der Systemkomponenten erreicht, die externe Daten durch flexible Module anspricht, welche zur Laufzeit modifiziert werden können. Wir evaluieren die Leistung des Systems indem wir die Genauigkeit des syntaktischen Parsers, die Präzision der gewonnenen Suchergebnisse sowie die Geschwindigkeit des Prototyps testen.
Die Struktur der organischen Bodensubstanz (OBS) ist ein seit Jahrzehnten unter Wissenschaftlern viel diskutiertes Thema. Die wichtigsten Modelle sind unter anderem das Polymer Modell und das Supramolekulare Modell. Während ersteres die OBS als Makromoleküle betrachtet, die amorphe und kristalline Bereiche enthält, erklärt letzteres die OBS als physikochemische Verbindung in der durch schwache hydrophobe Wechselwirkungen und Wasserstoffbrückenbindungen individuelle Moleküle primärer Struktur in einer Sekundärstruktur zusammengehalten werden. Die schwachen Wechselwirkungen innerhalb der Sekundärstruktur gewähren der OBS ihre charakteristische Mobilität. Eine wichtige Konsequenz dieses mehrdimensionalen Aufbaus ist es, dass abgesehen von der chemischen Zusammensetzung, die physikochemische Struktur der OBS eine entscheidende Rolle für ihre biogeochemischen Funktionen spielt. Aus diesem physikochemischen Verständnis der OBS Struktur heraus entstand das kürzlich eingeführte Konzept der durch Kationen und Wassermoleküle vermittelten Brücken zwischen OBS Segmenten (CaB und WaMB). Obwohl es in den letzten Jahren einige indirekte Anhaltspunkte für die Ausbildung von CaB und WaMB gab, gibt es bis heute kein klar umrissenes Verständnis di eser Prozesse. Experimentelle Probleme aufgrund sich überlagernder Effekte von wichtigen ebenfalls CaB beeinflussenden Parametern, wie pH und der Konzentration konkurrierender Kationen, erschweren die Untersuchung der CaB-bezogenen Einflüsse. Daher zielte diese Arbeit darauf ab, eine experimentelle Herangehensweise zu entwickeln um CaB innerhalb der OBS zu erzeugen und diese hinsichtlich verschiedener chemischer und physikochemischer Aspekte zu beurteilen. Dazu wurden zuerst die in den Proben schon vorhandenen Kationen entfernt und der pH Wert definiert eingestellt, bevor die Proben erneut mit bestimmten Kationen beladen wurden. So konnten pH- und Kationen-Effekte voneinander getrennt beobachtet werden.
Aus den Ergebnissen, die mit zwei unterschiedlichen Typen organischer Substanz erzielt worden sind, kann folgender Rückschluss gezogen werden: Unter der Voraussetzung, dass die Dichte der funktionellen Gruppen in der OBS hoch genug ist, so dass diese in ausreichender räumlicher Nähe zueinander arrangiert sind, können Kationen die OBS quervernetzen. Eine physikochemische strukturelle Umorientierung findet auch in Alterungsprozessen statt, die die Bildung von mehr und/oder stärkeren CaB und WaMB verursachen. Kationengröße und "ladung bestimmen sowohl die Erzeugung von CaB direkt bei der Kationenbehandlung, als auch die Effekte der Alterungsprozesse. Ein anfänglichrnstärker quervernetztes System ist weniger anfällig für strukturelle Änderungen und unterliegt weniger starken Alterungsprozessen als ein anfänglich schwächer quervernetztes. Verantwortlich für die strukturellen Veränderungen ist die der OBS innewohnende Mobilität innerhalb ihres physikochemischen Verbundes. Information über die strukturellen Voraussetzungen zur Bildung von CaB und deren Konsequenzen für die Matrixstabilität der OBS können helfen, Einblicke in die physikochemische Struktur der OBS zu erhalten. Außerdem zeigten die Qualität der OBS (bestimmt mithilfe thermischer Analytik) und deren Porenstruktur, die sich in einer Reihe von künstlich hergestellten Böden nach einigen Monaten der OBS Entwicklung gebildet hatten, dass die mineralischen Ausgangsmaterialien zwar eine Bedeutung für die chemische Natur der OBS Moleküle hatten, nicht jedoch für die physikalische Struktur der organisch-mineralischen Verbindungen.
In der vorliegenden Arbeit wurde außerdem erstmals die nanothermische Analyse mithilfe der Rasterkraftmikroskopie (AFM-nTA) für Boden eingesetzt, um thermische Eigenschaften und deren räumliche Verteilung im Nano- und Mikrometerbereich zu erfassen. Diese Methode ermöglichte es, physikochemische Prozesse, wie z.B. das Aufbrechen von WaMB in humusarmen Böden zu identifizieren, bei denen herkömmliche Methoden aufgrund zu niedriger Empfindlichkeit scheiterten. Weiterhin konnten durch eine verbesserte Anwendung der Methode und die Kombination mit anderen AFM-Parametern einige in Böden vorkommende Materialien in hoher räumlicher Auflösung unterschieden werden. Durch die Verwendung definierter Testmaterialien wurde versucht, diese Bodenmaterialien zu identifizieren. Das größte Potential dieser Methode liegt allerdings darin, die mikroskopische Heterogenität von Probenoberflächen zu quantifizieren, was z.B. dabei helfen kann, Prozess-relevante Hotspots aufzudecken.
Durch die Einbindung der AFM-nTA Technologie trägt die vorliegende Arbeit zum wissenschaftlichen Verständnis der Änderungen der physikochemischer Struktur der OBS durch Kationenquervernetzung bei. Die hier demonstrierte direkte Untersuchung der CaB kann möglicherweise zu einem großen Wissenssprung hinsichtlich dieser Wechselwirkungen verhelfen. Der beobachtete Alterungsprozess ergänzt gut das supramolekularen Verständnis der OBS. Die Einführung der nanothermischen Analyse in die Bodenkunde ermöglicht es, dem Problem der Heterogenität und der räumlichen Verteilung thermischer Eigenschaften zu begegnen. Ein anderer wichtiger Erfolg der AFM-nTA ist, dass sie genutzt werden kann um physikochemische Prozesse sehr geringer Intensität zu detektieren.
Große Mengen qualitativer Daten machen die Verwendung computergestützter Verfahren bei deren Analyse unvermeidlich. In dieser Thesis werden Text Mining als disziplinübergreifender Ansatz, sowie die in den empirischen Sozialwissenschaften üblichen Methoden zur Analyse von schriftlichen Äußerungen vorgestellt. Auf Basis dessen wird ein Prozess der Extraktion von Konzeptnetzwerken aus Texten skizziert, und die Möglichkeiten des Einsatzes von Verfahren zur Verarbeitung natürlicher Sprachen aufgezeigt. Der Kern dieses Prozesses ist die Textverarbeitung, zu deren Durchführung Softwarelösungen die sowohl manuelles als auch automatisiertes Arbeiten unterstützen, notwendig sind. Die Anforderungen an diese Werkzeuge werden unter Berücksichtigung des initiierenden Projektes GLODERS, welches sich der Erforschung von Schutzgelderpressung durchführenden Gruppierungen als Teil des globalen Finanzsystems widmet, beschrieben, und deren Erfüllung durch die zwei hervorstechendsten Kandidaten dargelegt. Die Lücke zwischen Theorie und Praxis wird durch die prototypische Anwendung der Methode unter Einbeziehung der beiden Lösungen an einem dem Projekt entspringenden Datensatz geschlossen.
In Studien zur Toxizität von Chemikaliengemischen wurde festgestellt, dass Gemische aus Komponenten in Konzentrationen ohne erkennbare Wirkung als Einzelstoff (NOECs) als Resultat der gemeinsamen Wirkung der Substanzen Toxizität verursachen können. Die Risikobewertung von Chemikalien konzentriert sich jedoch häufig auf einzelne chemische Substanzen, obwohl die meisten lebenden Organismen im Wesentlichen chemischen Gemischen anstatt einzelnen Substanzen ausgesetzt sind. Die Konzepte der additiven Toxizität, Konzentrationsadditivität (CA) und der unabhängigen Wirkung (IA), werden häufig angewendet, um die Mischungstoxizität von Gemischen ähnlich wirkender und unähnlich wirkender Chemikalien vorherzusagen. Allerdings können lebende Organismen, ebenso wie die Umwelt, beiden Chemikalienarten zur gleichen Zeit und am gleichen Ort ausgesetzt sein. Darüber hinaus wäre es nahezu unmöglich, auf experimentellem Wege Toxizitätsdaten für jede denkbare Mischung zu gewinnen, da die Anzahl der Möglichkeiten beinahe unendlich groß ist. Aus diesem Grund muss ein integriertes Modell zur Vorhersage der Mischungstoxizität, welches auf einzelnen Mischungskomponenten mit verschiedenen Arten toxischer Wirkung (MoAs) basiert, entwickelt werden. Die Ziele der vorliegenden Studie sind, die Problematik der Vorhersage der Mischungstoxizität in der Umwelt zu analysieren und integrierte Modelle zu entwickeln, die die Beschränkungen der vorhandenen Vorhersagemodelle zur Abschätzung der Toxizität nicht-interaktiver Mischungen mittels computergestützter Modelle überwinden. Für diese Zielsetzung wurden in dieser Studie vier Unterthemen bearbeitet. Als Erstes wurden Anwendungsbereiche und Beschränkungen bereits bestehender Modelle analysiert und in die drei Kategorien dieser Studie eingruppiert. Aktuelle Ansätze zur Einschätzung der Mischungstoxizität und die Notwendigkeit eines neuen Forschungskonzepts zur Überwindung bestehender Einschränkungen, die aus neueren Studien hervorgehen, wurden diskutiert. Insbesondere diejenigen, die computergestützte Ansätze einbeziehen um die Toxizität chemischer Gemische, basierend auf den toxikologischen Daten einzelner Chemikalien, vorherzusagen. Als Zweites wurde anhand einer Fallstudie und mittels computergestützter Simulation festgestellt, dass die Key Critical Component (KCC) und die Composite Reciprocal (CR) methods, die im Entwurf des Technischen Leitfadens der Europäischen Union (EU) zu Berechnung der Predicted No Effect Concentration (PNEC) und des Derived No Effect Level (DNEL) von Gemischen beschrieben wurden, signifikant abweichende Ergebnisse hervorbringen. Als dritter und vierter Schritt dieser Studie wurden die zwei folgenden integrierten Nebenmodelle entwickelt und erfolgreich angewandt, um die dem CA und IA Modell innewohnenden Beschränkungen zu überwinden, welche theoretisch sowohl für Chemikalien mit ähnlichen, als auch mit abweichenden Reaktionen existieren: 1) Partial Least Squares-based Integrated Addition Model (PLS-IAM) und 2) Quantitative Structure-Activity Relationship-based Two-Stage Prediction (QSAR-TSP) Modell. In dieser Studie wurde gezeigt, dass das PLS-IAM angewandt werden könnte, wenn die toxikologischen Daten ähnlicher Gemische mit gleicher Zusammensetzung zur Verfügung stehen. Das QSAR-TSP Modell zeigt eine Möglichkeit zur Überwindung der kritischen Einschränkungen des herkömmlichen TSP Modells auf, bei der Kenntnisse der MoAs aller Chemikalien erforderlich sind. Diese Studie zeigt das hohe Potential der erweiterten integrierten Modelle, z.B. PLS-IAM und QSAR-TSP, die durch Berücksichtigung verschiedener nicht-interaktiver Komponenten mit unterschiedlichen MoA Gruppen, die Verlässlichkeit konventioneller Modelle erhöhen und das Verfahren der Risikobewertung von Gemischen aus wissenschaftlicher Sicht vereinfachen.
Iterative Signing of RDF(S) Graphs, Named Graphs, and OWL Graphs: Formalization and Application
(2013)
When publishing graph data on the web such as vocabulariesrnusing RDF(S) or OWL, one has only limited means to verify the authenticity and integrity of the graph data. Today's approaches require a high signature overhead and do not allow for an iterative signing of graph data. This paper presents a formally defined framework for signing arbitrary graph data provided in RDF(S), Named Graphs, or OWL. Our framework supports signing graph data at different levels of granularity: minimum self-contained graphs (MSG), sets of MSGs, and entire graphs. It supports for an iterative signing of graph data, e. g., when different parties provide different parts of a common graph, and allows for signing multiple graphs. Both can be done with a constant, low overhead for the signature graph, even when iteratively signing graph data.
Die folgende Arbeit analysiert die Funktionsweise und Programmiermöglichkeiten von Compute Shadern. Dafür wird zunächst in Kapitel 2 eine Einführung in Compute Shader gegeben, in der gezeigt wird, wie diese funktionieren und wie sie programmiert werden können. Zusätzlich wird das Zusammenspiel von Compute Shadern und OpenGL 4.3 anhand zweier einführender Beispiele gezeigt. Kapitel 3 beschreibt dann eine N-Körper Simulation, welche implementiert wurde um die Rechenleistung von Compute Shadern und den Einsatz von gemeinsamen Speicher zu zeigen. Danach wird in Kapitel 4 gezeigt, inwiefern sich Compute Shader für physikalische Simulationen eignen und wo Probleme auftauchen können. In Kapitel 5 wird ein eigens konzipierter und entwickelter Algorithmus zur Erkennung von Linien in Bildern beschrieben und anschließend mit der Hough Transformation verglichen. Zuletzt wird in Kapitel 6 ein abschließendes Fazit gezogen.
Various best practices and principles guide an ontology engineer when modeling Linked Data. The choice of appropriate vocabularies is one essential aspect in the guidelines, as it leads to better interpretation, querying, and consumption of the data by Linked Data applications and users.
In this paper, we present the various types of support features for an ontology engineer to model a Linked Data dataset, discuss existing tools and services with respect to these support features, and propose LOVER: a novel approach to support the ontology engineer in modeling a Linked Data dataset. We demonstrate that none of the existing tools and services incorporate all types of supporting features and illustrate the concept of LOVER, which supports the engineer by recommending appropriate classes and properties from existing and actively used vocabularies. Hereby, the recommendations are made on the basis of an iterative multimodal search. LOVER uses different, orthogonal information sources for finding terms, e.g. based on a best string match or schema information on other datasets published in the Linked Open Data cloud. We describe LOVER's recommendation mechanism in general and illustrate it alongrna real-life example from the social sciences domain.
This paper presents a method for the evolution of SHI ABoxes which is based on a compilation technique of the knowledge base. For this the ABox is regarded as an interpretation of the TBox which is close to a model. It is shown, that the ABox can be used for a semantically guided transformation resulting in an equisatisfiable knowledge base. We use the result of this transformation to effciently delete assertions from the ABox. Furthermore, insertion of assertions as well as repair of inconsistent ABoxes is addressed. For the computation of the necessary actions for deletion, insertion and repair, the E-KRHyper theorem prover is used.
Tagging-Systeme sind faszinierende dynamische Systeme in denen Benutzer kollaborativ Ressourcen mit sogenannten Tags indexieren. Um das volle Potential von Tagging-Systemen nutzen zu können ist es wichtig zu verstehen, wie sich das Verhalten der einzelnen Benutzer auf die Eigenschaften des Gesamtsystems auswirkt. In der vorliegenden Arbeit wird das Epistemic Dynamic Model präsentiert. Es schlägt eine Brücke zwischen dem Benutzerverhalten und den Systemeigenschaften. Das Modell basiert auf der Annahme, dass der Einfluss des gemeinsamen Hintergrundwissens der Benutzer und der Imitation von Tag-Vorschlägen ausreicht, um die Entstehung der Häufigkeitsverteilungen der Tags und des Wachstums des Vokabulars zu erklären. Diese beiden Eigenschaften eines Tagging-Systems hängen eng mit der Entstehung eines gemeinsamen Vokabulars der Benutzer zusammen. Mit Hilfe des Epistemic Dynamic Models zeigen wir, dass die generelle Ausprägung der Tag-Häufigkeitsverteilungen und des Wachstums des Vokabulars ihren Ursprung in dem gemeinsamen Hintergrundwissen der Benutzer haben. Tag-Vorschläge können dann dazu genutzt werden, um gezielt diese generelle Ausprägung zu beeinflussen. In der vorliegenden Arbeit untersuchen wir hauptsächlich den Einfluss der von Vorschlägen populärer Tags ausgeht. Populäre Tags sorgen für einen Feedback-Mechanismus zwischen den Vokabularen der einzelnen Benutzer, der die Inter-Indexer Konsistenz der Tag-Zuweisungen erhöht. Wie wird aber dadurch die Indexierungsqualität in Tagging-Systemen beeinflusst? Zur Klärung dieser Frage untersuchen wir eine Methode zur Messung der Inter-Ressourcen Konsistenz der Tag-Zuweisungen. Die Inter-Ressourcen Konsistenz korreliert positiv mit der Indexierungsqualität, und mit der Trefferquote und der Genauigkeit von Suchanfragen an das System. Sie misst inwieweit die Tag-Vektoren die durch Benutzer wahrgenommene Ähnlichkeit der jeweiligen Ressourcen widerspiegeln. Wir legen mit Hilfe unseres Modell dar, und zeigen es auch mit Hilfe eines Benutzerexperiments, dass populäre Tags zu einer verringerten Inter-Ressourcen Konsistenz führen. Des Weiteren zeigen wir, dass die Inter-Ressourcen Konsistenz erhöht wird, wenn dem Benutzer das eigene, bisher genutzte Vokabular vorgeschlagen wird. Unsere Methode zur Messung der Inter-Ressourcen Konsistenz ergänzt bestehende Evaluationsmaße für Tag-Vorschlags-Algorithmen um den Aspekt der Indexierungsqualität.