Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Die vorliegende Arbeit bildet den Abschluss eines Forschungspraktikums von Studierenden der Masterstudiengänge Informationsmanagement und Wirtschaftsinformatik unter Betreuung der wissenschaftlichen Mitarbeiterin Daniela Simić-Draws und von Prof. Dr. Rüdiger Grimm. Eine wesentliche Vorlage zu dieser Arbeit war ein Vorgehensmodell zur Sicherheitsanalyse von Geschäftsprozessen, das von D. Simić-Draws im Rahmen ihrer Dissertation erarbeitet wird und zu dessen laufender Verbesserung dieses studentische Forschungspraktikum wertvolle Hinweise liefern konnte. Als Anwendungsbeispiel wurden die sicherheitskritischen Prozesse "Kommunalwahl" und "Geldauszahlung am Bankautomaten" gewählt, weil die Arbeitsgruppe von Prof. Grimm in diesen beiden Anwendungen aus vorhergehender wissenschaftlicher Arbeit Erfahrung gesammelt hat. Insbesondere zum Anwendungsbeispiel "Kommunalwahl" hatte sich dankenswerterweise das Ordnungsamt Koblenz, das für die Kommunalwahlen zuständig ist, unter aktiver Mithilfe ihres Leiters Dirk Urmersbach zur Zusammenarbeit angeboten, so dass dieser Geschäftsprozess wirklichkeitsnah untersucht werden konnte.
Ein Interpreter für GReQL 2
(2006)
Im Rahmen dieser Diplomarbeit wird die Auswertungskomponente fuer die Graphanfragesprache GREQL 2, welche von Katrin Marchewka beschrieben wurde, entworfen, welche Anfragen diese Sprache interpretiert. Die Auswertungskomponente besteht aus den Bausteinen Auswerter, Parser, Optimierer, Funktionsbibliothek und dem Containerframework JValue. Der Parser wurde bereits von Katrin Marchewka implementiert, der Optimierer bleibt einer Anschlußarbeit vorbehalten. Innerhalb dieser Arbeit werden die Bausteine Auswerter, Funktionsbibliothek und JValue als Prototypen implementiert. Aufgrund der Erfahrungen mit der Auswertungskomponente fuer den GREQL 2-Vorgaenger GREQL 1 ist das Primaerziel dieser Arbeit der Entwurf einer sauberen, klaren, erweiterbaren und zukunftsfähigen Architektur, wobei die aktuellen Prinzipien der Softwaretechnik beüecksichtigt werden sollen.
Hintergrund: Veränderte gesetzliche Rahmenbedingungen in der stationären Altenhilfe, die demografische Entwicklung mit dem steigenden Bedarf an Pflegekräften einerseits und die Tatsache, dass immer weniger Menschen aufgrund des Images des Berufes und der Arbeitsbedingungen in der Pflege tätig sein wollen andererseits, machen es notwendig neue Wege zu suchen. Die Träger im Sozial- und Gesundheitswesen sind gefordert, Konzepte zu entwickeln, die ihre Wirtschaftlichkeit sichern, gleichzeitig aber auch den Belastungen und der Unzufriedenheit von Mitarbeitenden entgegenwirken. Es braucht Gestaltungsräume, um Lösungen im Konflikt zwischen Anspruch und Machbarkeit zu finden und so dem alltäglichen Stress, der Mitarbeiterfluktuation und dem drohenden Leistungsabfall entgegenzuwirken. Durch das Praxisprojekt eines sozial-karitativen Trägers zur Implementierung einer ´Konstruktiven Konfliktkultur´ in einer stationären Altenhilfeeinrichtung sollte eine Organisationskultur geschaffen werden, in der Konflikte offen angesprochen werden, eine Offenheit für Veränderungsprozesse entsteht, Belastungen reduziert und die Mitarbeitenden an die Organisation gebunden werden. Dazu wurden drei pädagogische Interventionen entwickelt, durch die die Mitarbeitenden und die Führungskräfte in ihrer Konfliktfähigkeit geschult werden sollten. Methode: Die wissenschaftliche Begleitung dieses Praxisprojektes fand als Evaluationsstudie statt. Zu drei Erhebungszeitpunkten wurde eine repräsentative Mitarbeitergruppe dieser Einrichtung zu den Themen Konflikterleben, Führungsverhalten, Macht/ Regeln und Veränderungen durch qualitative Leitfadeninterviews befragt. Die Auswertung und Analyse der Daten erfolgte im Sinne der qualitativen Inhaltsanalyse nach Mayring und floss ein in eine formative Prozessevaluation der einzelnen Interventionen und einer summativen Effektevaluation zu Bewertung der Zielerreichung des Projektes. Ergebnis: Die einzelnen Interventionen des Projektes konnten nicht dazu beitragen, dass eine ´Konstruktiven Konfliktkultur´ nachhaltig entwickelt werden konnte. Zwar gab es in der Bewusstseinsspanne des Projektes einen expliziten Wissensgewinn, jedoch mehr bei den Führungskräften als bei den Mitarbeitenden. Die Führungskräfte sahen im Projekt einen Gewinn, für einen Teil der Mitarbeitenden war es sogar Zeitverschwendung. Anhand der Ergebnisse lassen sich drei Merkmale herauskristallisieren, die kennzeichnend sind für die zugrundeliegenden Denk-, Urteils-, und Handlungsstrukturen in sozialen Organisationen im Umgang mit Konflikten: Konflikte sind nicht wahrnehmbare Konstrukte der Alltagswelt. Sie manifestieren sich aufgrund fehlender Legitimation in Überforderung und eine ´Konstruktiven Konfliktkultur´ kann nicht auf das Wissen Einzelner aufbauen, sondern benötigt verbindliche Handlungsstrukturen für alle Organisationsmitglieder gleichermaßen. Ergebnisinterpretation: Durch die Einbeziehung wissenssoziologischer und konfliktsoziologischer Theorien und deren Einordnung in Institutionen – und Organisationstheorien konnten die Ergebnisse diskutiert und neue Erkenntnisse über Konflikte in Organisationen, die sich in drei Spannungsfeldern zeigen, gewonnen werden. Die Spannungsfelder bewegen sich zwischen dem Konflikt als nicht-wahrnehmbarem Alltagsphänomen auf der einen Seite und einer manifestierten Belastung auf der anderen Seite, dem Gewohnheitswissen im alltäglichen Umgang einerseits und einem fehlenden Handlungswissen andererseits, einer funktional-positiven Sicht hier und einer dysfunktional-negativen Sicht dort. Anhand dieser Spannungsfelder kann die Konfliktmentalität und ihre Entstehung und auch die Möglichkeit ihrer Veränderbarkeit reflektiert und können Erfolgsfaktoren für die Implementierung einer ´Konstruktiven Konfliktkultur´ entwickelt werden.
Schlussfolgerung: Wissen, Legitimation und Institutionalisierung und die Stärkung der Wahrnehmungen sind der Schlüssel für die Veränderung der Konfliktmentalität in sozialen Organisationen. Nachhaltigkeit erhält die Thematik aber erst, wenn alle Organisationsmitglieder eine gewisse Handlungsnotwendigkeit für sich erkennen. Aktuell steht die Organisationsentwicklung für den expliziten Veränderungswillen von Management, der jedoch auf ein gewisses Beharrungsvermögen von Mitarbeitenden trifft.
In dieser Arbeit wird eine Unterrichtsreihe beschrieben, welche aus den drei Bereichen „mathematische Relationen“, „Datenbanken in Sozialen Netzwerken“ und „Datenschutz“ zusammengesetzt ist. Zu jedem Bereich wird ein eigener Unterrichtsentwurf präsentiert.
Außerdem wurde im Rahmen der vorliegenden Arbeit ein Programm zur Visualisierung der Relationen des Sozialen Netzwerks Instahub entworfen, welches im Anschluss an die Beschreibung der Unterrichtsreihe aufgeführt wird.
In the new epoch of Anthropocene, global freshwater resources are experiencing extensive degradation from a multitude of stressors. Consequently, freshwater ecosystems are threatened by a considerable loss of biodiversity as well as substantial decrease in adequate and secured freshwater supply for human usage, not only on local scales, but also on regional to global scales. Large scale assessments of human and ecological impacts of freshwater degradation enable an integrated freshwater management as well as complement small scale approaches. Geographic information systems (GIS) and spatial statistics (SS) have shown considerable potential in ecological and ecotoxicological research to quantify stressor impacts on humans and ecological entitles, and disentangle the relationships between drivers and ecological entities on large scales through an integrated spatial-ecological approach. However, integration of GIS and SS with ecological and ecotoxicological models are scarce and hence the large scale spatial picture of the extent and magnitude of freshwater stressors as well as their human and ecological impacts is still opaque. This Ph.D. thesis contributes novel GIS and SS tools as well as adapts and advances available spatial models and integrates them with ecological models to enable large scale human and ecological impacts identification from freshwater degradation. The main aim was to identify and quantify the effects of stressors, i.e climate change and trace metals, on the freshwater assemblage structure and trait composition, and human health, respectively, on large scales, i.e. European and Asian freshwater networks. The thesis starts with an introduction to the conceptual framework and objectives (chapter 1). It proceeds with outlining two novel open-source algorithms for quantification of the magnitude and effects of catchment scale stressors (chapter 2). The algorithms, i.e. jointly called ATRIC, automatically select an accumulation threshold for stream network extraction from digital elevation models (DEM) by assuring the highest concordance between DEM-derived and traditionally mapped stream networks. Moreover, they delineate catchments and upstream riparian corridors for given stream sampling points after snapping them to the DEM-derived stream network. ATRIC showed similar or better performance than the available comparable algorithms, and is capable of processing large scale datasets. It enables an integrated and transboundary management of freshwater resources by quantifying the magnitude of effects of catchment scale stressors. Spatially shifting temporal points (SSTP), outlined in chapter 3, estimates pooled within-time series (PTS) variograms by spatializing temporal data points and shifting them. Data were pooled by ensuring consistency of spatial structure and temporal stationarity within a time series, while pooling sufficient number of data points and increasing data density for a reliable variogram estimation. SSTP estimated PTS variograms showed higher precision than the available method. The method enables regional scale stressors quantification by filling spatial data gaps integrating temporal information in data scarce regions. In chapter 4, responses of the assumed climate-associated traits from six grouping features to 35 bioclimatic indices for five insect orders were compared, their potential for changing distribution pattern under future climate change was evaluated and the most influential climatic aspects were identified (chapter 4). Traits of temperature preference grouping feature and the insect order Ephemeroptera exhibited the strongest response to climate as well as the highest potential for changing distribution pattern, while seasonal radiation and moisture were the most influential climatic aspects that may drive a change in insect distribution pattern. The results contribute to the trait based freshwater monitoring and change prediction. In chapter 5, the concentrations of 10 trace metals in the drinking water sources were predicted and were compared with guideline values. In more than 53% of the total area of Pakistan, inhabited by more than 74 million people, the drinking water was predicted to be at risk from multiple trace metal contamination. The results inform freshwater management by identifying potential hot spots. The last chapter (6) synthesizes the results and provides a comprehensive discussion on the four studies and on their relevance for freshwater resources conservation and management.
Entscheidungsverhalten unter Unsicherheit mit Berücksichtigung von Persönlichkeitseigenschaften
(2014)
Ziel dieser Bachelorarbeit war es herauszufinden, mit welchen Hilfsmitteln Entscheidungen unter Unsicherheit getroffen werden und welche Unterschiede es bei Personen mit verschiedenen Eigenschaften gibt. Die Ergebnisse sollten hauptsächlich den Entscheidungsprozess von Managern, Entrepreneuren und Personen mit großer Entscheidungskompetenz widerspiegeln. Zudem sollte gezeigt werden, dass unterschiedliche Persönlichkeitseigenschaften sich auf den Entscheidungsprozess auswirken.
Bei der eindeutigen Isolation und Klassifizierung von Merkmalen in 3D-Multi-Attribut-Volumendaten sind multidimensionale Transferfunktionen unabdingbar. Jedoch wird bei mehreren Dimensionen das Verständnis der Daten sowie die Interaktion mit diesen zu einer Herausforderung. Weder die Kontrolle der vielseitigen Eingabeparameter noch die Visualisierung im höherdimensionalen Raum sind trivial.
Ziel dieser Arbeit ist die Erstellung eines Transferfunktionseditors, der durch die Verwendung von verschiedenen Visualisierungs- und Interaktionstechniken, z.B. der Verwendung von parallelen Koordinatenachsen, die Erstellung multidimensionaler Transferfunktionen unterstützt. Dabei sollen unterschiedliche Dimensionen interaktiv ausgewählt und kombiniert werden und die Veränderungen der Transferfunktion durch visuelles Feedback im gerenderten Volumen bestätigt werden.
In scientific data visualization huge amounts of data are generated, which implies the task of analyzing these in an efficient way. This includes the reliable detection of important parts and a low expenditure of time and effort. This is especially important for the big-sized seismic volume datasets, that are required for the exploration of oil and gas deposits. Since the generated data is complex and a manual analysis is very time-intensive, a semi-automatic approach could on one hand reduce the time required for the analysis and on the other hand offer more flexibility, than a fully automatic approach.
This master's thesis introduces an algorithm, which is capable of locating regions of interest in seismic volume data automatically by detecting anomalies in local histograms. Furthermore the results are visualized and a variety of tools for the exploration and interpretation of the detected regions are developed. The approach is evaluated by experiments with synthetic data and in interviews with domain experts on the basis of real-world data. Conclusively further improvements to integrate the algorithm into the seismic interpretation workflow are suggested.
In dieser Dissertation wird eine Verfahrensweise für die formale Spezifikation und Verifikation von Benutzerschnittstellen unter Sicherheitsaspekten vorgestellt. Mit dieser Verfahrensweise können beweisbar sichere Benutzerschnittstellen realisiert werden. Die Arbeit besteht aus drei Teilen. Im ersten Teil wird eine Methodologie für die formale Beschreibung von Mensch-Maschine-Interaktion entwickelt. Im zweiten Teil werden gängige Computersicherheitskonzepte für die Mensch-Maschine-Interaktion angepasst und mit den im ersten Teil entwickelten Methoden formalisiert. Dabei wird ein generisches formales Modell von Mensch-Maschine-Interaktion erstellt. Im dritten Teil wird die Methodologie, die in den ersten beiden Teilen entwickelt wurde, an einem sicheren Email-Client als exemplarischen Anwendungsprogramm demonstriert.
Introduction:
In March 2012 a secessionist-Islamist insurgency gained momentum in Mali and quickly took control of two-thirds of the state territory. Within weeks radical Islamists, drug smugglers and rebels suddenly ruled over a territory bigger than Germany. News of the abuse of the population and the introduction of harsh Sharia law spread soon, and word got out that the Malian Army had simply abandoned the land. The general echo of the IC was surprise, a reaction that was, as this research will show, as unfunded as it was unconstructive*. When Malian state structures collapsed, the world watched in shock, even though the developments couldhave been anticipated –and prevented. Ultimately, the situation had to be resolved by international forces (most notably French troops), who are still in Mali at the time of writing (Arieff 2013a: 5; Lohmann 2012: 3; Walther and Christopoulos 2015: 514f.; Shaw 2013: 204; Qantara, Interview, 2012;L’Express, Mali, 2015; Deutscher Bundestag, MINUSMA und EUTM Mali, 2016; UN, MUNISMA, 2016; Boeke and Schuurmann 2015: 801; Chivvis 2016: 93f.).
This research will show that the developments in Mali in 2012 have been developing for a long time and could have been avoided. In doing so, it will also show why state security can never be analyzed or consolidated in an isolated manner. Instead, it is necessary to take into account regional dynamics and developments in order to find a comprehensive approach to security in individual states. Once state failure occurs, not only does the state itself fail, but the surrounding region equally failed to prevent the failure.
Weak states are a growing concern in many world regions, particularly in Africa. As international intervention often proves unsustainable for various reasons*, the author believes that states which cannot stabilize themselves need a regional agent to support them. This regional agent should be a Regional Security Complex (RSC) asdefined by Barry Buzan and Ole Waever (Buzan and Waever 2003). As the following analysis will show, Mali is a case in point. The hope is that this study will help avoid similar failures in the future by making a strong case for the establishment of RSC’s.
…
Das Hauptziel der vorliegenden Arbeit ist die Absicherung der Qualität eines pharmazeutischen Produktionsprozesses durch die Überprüfung des Volumens mikroskopischer Polymerstäbchen mit einem hochgenauen 3D Messverfahren. Die Polymerstäbchen werden für pharmazeutische Anwendungen hergestellt. Aus Gründen der Qualitätssicherung muss das Istgewicht überprüft werden. Derzeit werden die Polymerstäbchen stichprobenartig mit einer hochpräzisen Waage gewogen. Für die nächste Generation von Polymeren wird angenommen, dass die Produktabmessungen weiter reduziert werden sollen und die Produktionstoleranzen auf 2,5% gesenkt werden. Die daraus resultierenden Genauigkeitsanforderungen übersteigen jedoch die Möglichkeiten der Wiegetechnik. Bei homogenen Materialien ist die Masse proportional zum Volumen. Aus diesem Grund kommt dessen Bestimmung als Alternative in Frage. Dies verschafft Zugang zu optischen Messverfahren und deren Flexibilität und Genauigkeitpotenzial. Für den Entwurf eines auf die Fragestellung angepassten Messkonzeptes sind weiterhin von Bedeutung, dass das Objekt kontaktlos, mit einer Taktzeit von maximal fünf Sekunden vermessen und das Volumen approximiert wird. Die Querschnitte der Polymerstäbchen sind etwa kreisförmig. Aufgrund der Herstellung der Fragmente kann nicht davon ausgegangen werden, dass die Anlageflächen orthogonal zur Symmetrieachse des Objektes sind. Daher muss analysiert werden, wie sich kleine Abweichungen von kreisförmigen Querschnitten sowie die nicht idealen Anlageflächen auswirken. Die maximale Standardabweichung für das Volumen, die nicht überschritten werden sollte, beträgt 2,5%. Dies entspricht einer maximalen Abweichung der Querschnittsfläche um 1106 µm² (Fehlerfortpfanzung). Als Bewertungskriterium wird der Korrelationskoeffzient zwischen den gemessenen Volumina und den Massen bestimmt. Ein ideales Ergebnis wäre 100%. Die Messung zielt auf einen Koeffzienten von 98% ab. Um dies zu erreichen, ist ein präzises Messverfahren für Volumen erforderlich. Basierend auf dem aktuellen Stand der Technik können die vorhandenen optischen Messverfahren nicht verwendet werden. Das Polymerstäbchen wird von einer Kamera im Durchlicht beobachtet. Daher sind der Durchmesser und die Länge sichtbar. Das Objekt wird mittels einer mechanischen Vorrichtung um die Längsachse gedreht. So können Bilder von allen Seiten aufgenommen werden. Der Durchmesser und die Länge werden mit der Bildverarbeitung berechnet. Das neue Konzept vereint die Vorteile der Verfahren: Es ist unempfindlich gegen Farb-/Helligkeitsänderungen und die Bilder können in beliebiger Anzahl aufgenommen werden. Außerdem sind die Erfassung und Auswertung wesentlich schneller. Es wird ein Entwurf und die Umsetzung einer Lösung zur hochpräzisen Volumenmessung von Polymerstäbchen mit optischer Messtechnik und Bildverarbeitung ausgearbeitet. Diese spezielle Prozesslösung in der Prozesslinie (inline) sollte eine 100%ige Qualitätskontrolle während der Produktion garantieren. Die Zykluszeiten des Systems sollte fünf Sekunden pro Polymerstäbchen nicht überschreiten. Die Rahmenbedienungen für den Prozess sind durch die Materialeigenschaften des Objekts, die geringe Objektgröße (Breite = 199 µm, Länge = 935 µm bis 1683 µm) und die undeffinierte Querschnittsform (durch den Trocknungsprozess) vorgegeben. Darüber hinaus sollten die Kosten für den Prozess nicht zu hoch sein. Der Messaufbau sollte klein sein und ohne Sicherheitsvorkehrungen oder Abschirmungen arbeiten. Das entstandene System nimmt die Objekte in verschiedenen Winkelschritten auf, wertet mit Hilfe der Bildverarbeitung die Aufnahmen aus und approximiert das Volumen. Der Korrelationskoffizient zwischen Volumen und Gewicht beträgt für 77 Polymerstäbchen mit einem Gewicht von 37 µg bis 80 µg 99; 87%. Mit Hilfe eines Referenzsystems kann die Genauigkeit der Messung bestimmt werden. Die Standardabweichung sollte maximal 2,5% betragen. Das entstandene System erzielt eine maximale Volumenabweichung von 1,7%. Die Volumenvermessung erfüllt alle Anforderungen und kann somit als Alternative für die Waage verwendet werden.
Lernen in Citizen Science
(2021)
Unsere Welt und die technischen und naturwissenschaftlichen Erkenntnisse verändern sich aktuell sehr schnell. Dies betrifft auch die naturwissenschaftliche Forschung und erfordert vermehrten Einsatz der Wissenschaftskommunikation und der Bildung. Ein Instrument der Wissenschaftskommunikation und eine Erweiterung des schulischen Unterrichts kann die Beteiligung von Freiwilligen bei wissenschaftlichen Arbeiten sein, welches auch als Citizen Science (CS) bezeichnet wird. CS Projekte erfreuen sich einer wachsenden Beliebtheit, unter anderem von Schulen (Burger, 2016). Dabei werden unter anderem die Förderung des Kontextwissens, der Scientific Literacy, der Umwelteinstellung und des –verhaltens versprochen (Peter et al., 2019). Interventionsstudien zu den Bildungspotentialen kommen jedoch zu unterschiedlichen Ergebnissen (Gommermann & Monroe, 2012; Turrini et al., 2018). Diese inkonsistenten Ergebnisse der Studien können auf die unterschiedliche Gestaltung der einzelnen evaluierten CS Projekte zurückgeführt werden. Es wird angenommen, dass Teilnehmende, die in mehr Schritten des wissenschaftlichen Prozesses eingebunden werden, ein größeres Bildungspotential haben, als Teilnehmende, die nur in wenige Schritte eingebunden werden (Burger, 2016; Shirk & Bonney, 2018). Bonney, Ballard et al. (2009) haben dazu ein dreistufiges Modell entwickelt. Das Modell wird unter anderem auch von Shirk et al. (2012) und Jordan et al. (2015) unterstützt, ist jedoch bezüglich der Lernwirksamkeit nicht empirisch überprüft (Edwards et al., 2018; Jordan et al., 2015). Deswegen schließt die Forschungsfrage dieser Studie hier an: Unter welchem Partizipationsansatz sind die Lerneffekte in einem CS Projekt am größten für Schülerinnen und Schüler? Um diese Frage zu beantworten, wurde ein CS Projekt mit drei Experimentalgruppen geplant und durchgeführt. Insgesamt nahmen 199 Schülerinnen und Schüler an dem Projekt teil. Innerhalb der Interventionsstudie wurden die Schülerinnen und Schüler zu drei Testzeitpunkten zur Umwelteinstellung und -verhalten, Nature of Science, Einstellung zur Wissenschaft und dem Kontextwissen befragt. Die Analysen über die Messzeitpunkte zeigen keine statistisch signifikanten Einflüsse der Experimentalgruppen auf die abhängigen Variablen. Jedoch ist die Teststärke bei allen Tests zu gering, um abschließende Aussagen über die Annahmen zu treffen. Wird jedoch die generelle Wirkung der Intervention betrachtet, zeigen sich signifikante Effekte auf alle Schülerinnen und Schüler, unter anderem steigt das Verständnis über Nature of Science. Diese Ergebnisse stimmen mit früheren Schlussfolgerungen von Phillips (2017), Phillips et al. (2019) und Del Bianco (2018) überein, die ebenfalls Zweifel an dem Modell von Bonney, Ballard et al. (2009) äußerten. Innerhalb dieses CS Projektes konnte sich keiner der drei Partizipationsansätze bezüglich des Bildungspotential für Schülerinnen und Schüler hervorheben lassen. Jedoch ist diese Studie unter anderem durch die geringe Teststärke limitiert und endgültige Aussagen bedürfen weiterer systematischer Forschung.
Im Rahmen dieser Arbeit wird eine Clusteranalyse-Umgebung durch Kopplung bestehender Lösungen entwickelt. Um Clusteranalysen auf Softwareelementen durchführen zu können, wird eine Software zur Clusteranalyse an das bestehende Reverse Engineering Tool GUPRO zur Extraktion von Informationen aus Softwareartefakten, wie z.B. Quellcode-Dateien, gekoppelt. Die entstehende Clusteranalyse-Umgebung soll alle Services einer Clusteranalyse auf Softwareelementen unter einer Oberfläche vereinen. Wichtiger Bestandteil der Arbeit ist sowohl die Aufbereitung der theoretischen Grundlagen der Clusteranalyse mit Blickpunkt auf das Softwareclustering, als auch ein strukturierter Auswahlprozess der für die zu entwickelnde Umgebung verwendeten Software zur Clusteranalyse. Letztendlich soll der Funktionalitätsumfang der Clusteranalyse-Umgebung auf ein im Voraus, in Form einer Anforderungsdefinition, festgelegtes Maß angehoben werden.
In dieser Studie sollte hinsichtlich der Entwicklung eines faunistisch begründeten Monitoringkonzeptes für hydrologische Interaktionen untersucht werden, inwieweit die Meiofauna in Hyporheal und Grundwasser in der Lage ist, Oberflächenwasser-Grundwasser-Interaktionen zu reflektieren und die hydrologischen Verhältnisse einer Uferfiltrationsanlage aufzuzeigen. Dafür wurden hydrochemische und faunistische Analysen bezüglich ihrer Aussagekraft miteinander verglichen. Außerdem wurde die Anwendbarkeit des Grundwasser-Fauna-Index (GFI) zur Beurteilung der Stärke des Oberflächenwassereinflusses auf unterirdisches Wasser überprüft. Für die Untersuchung wurde die Uferfiltrationsanlage Flehe der Stadtwerke Düsseldorf ausgewählt, auf deren Gelände 70 vertikale Entnahmebrunnen über eine Strecke von 1,4 km eine Brunnengalerie bilden, die im Jahr insgesamt 11 Mio. m3 Wasser fördert. Am Untersuchungsstandort wurden insgesamt 15 Observationspegel von Februar 2005 bis Januar 2006 faunistisch und hydrochemisch beprobt. Die physikochemische Untersuchung ergab eine Aufteilung des Untersuchungsgebietes in vier Zonen. Neben dem Oberflächenwasser des Rheins [OW Rhein] konnten das Uferfiltrationswasser zwischen Rhein und den Entnahmebrunnen [Hyporheal], alluviales Grundwasser hinter der Brunnengalerie [Alluv. GW] und bei größerer Entfernung zum Rhein landseitiges Grundwasser [landseitiges GW] differenziert werden. Dabei wies der Rhein die typische Charakteristik eines Fließgewässers auf, gekennzeichnet durch eine große Temperaturamplitude mit einem Sommermaximum, hohen Sauerstoffkonzentrationen mit einem Wintermaximum und erhöhten AOX-, DOC- und SAK254nm-Werten. Am Uferfiltrat der Gruppe [Hyporheal] wurde die Wirksamkeit der mikrobiellen Abbauprozesse während der Uferfiltration mit deutlichen Reduzierungen der DOC- und SAK- und Sauerstoffkonzentrationen ersichtlich. Die Gruppe [Alluv. GW] und verstärkt das [landseitige GW] waren durch eine höhere elektrische Leitfähigkeit und erhöhten Bor- und Sulfatkonzentrationen sowie z. T. geringen Sauerstoffgehalten gekennzeichnet. Anhand dieser hydrochemischen Differenzen konnte die unterschiedliche Herkunft des Wassers im Untersuchungsgebiet ermittelt werden Die faunistischen Untersuchungen zeigten ein differenzierteres Bild von den hydrologischen Verhältnissen als die Hydrochemie. Insgesamt konnten fünf ökologische Gruppen ermittelt werden. Die Gruppe [Hyporheal 1] der A-Pegelreihe wies als einzige euryöke Arten auf, die einen stärkeren Oberflächenwassereinfluss anzeigten. Im [Hyporheal 2] der B-Pegelreihe konnte eine artenreiche ökotonale Fauna nachgewiesen werden, während die Proben des alluvialen Grundwassers der C-Pegelreihe [Alluv. GW (Pumpe)] den Einfluss der Entnahmebrunnen reflektierten. In den Pegeln des alluvialen Grundwassers [Alluv. GW] wurde aufgrund der geringeren Beeinflussung der Pumpen artenreichere Zoozönosen vorgefunden. Das [landseitige GW] wies schließlich eine arten- und abundanzarme Fauna auf, die charakteristisch ist für Grundwasser mit geringem Oberflächenwassereinfluss. Folglich konnte die Fauna nicht nur die Herkunft des Grundwassers anzeigen, sondern auch den Einfluss und die Intensität des Oberflächenwassers auf das Grundwasser sowie anthropogene Störungen wie eine verstärkte Kolmation bzw. die Effekte der Wasserentnahme durch die Brunnen. Die Meiofauna im Grundwasserleiter der Uferfiltrationsanlage dürfte somit als Indikator für hydrologische Verhältnisse gut geeignet sein. Der Grundwasser-Fauna-Index konnte als der wichtigste Faktor aller physikochemischen Parameter ermittelt werden, der die faunistischen Gruppen am stärksten beeinflusst. Außerdem war der GFI in der Lage, die Auswirkung und Intensität des Einflusses von Oberflächenwasser auf die einzelnen Probestandorte anzuzeigen. Die hier dargestellten Ergebnisse zeigen, dass die Grundwasserfauna und der GFI viel versprechende Methoden zur Bewertung der hydrologischen Verhältnisse, insbesondere des Einflusses von Oberflächenwasser auf das Grundwasser sind. Daher sind sie als Ergänzung zur hydrochemischen Analyse zu empfehlen und können auch einen wichtigen Beitrag für die Vulnerabilitätsabschätzung leisten.
Im Rahmen dieser Arbeit soll das Software-Modellierungstool Enterprise Architect so erweitert werden, dass die Trennung der Belange entsprechend dem erweiterten Hyperspace-Modell von Lohmann ermöglicht wird. Daneben soll auch die Bestimmung so genannter Slices ermöglicht werden. Bei einem Slice handelt es sich um die Menge aller Belange und syntaktischen Einheiten, welche mit einem oder mehreren Belangen direkt oder transitiv verknüpft sind. Die Idee der Bestimmung solcher Slices ist graphenorientiert: Die transitive Hülle der ausgewählten Belange und der mit diesen verknüpften Belange wird bestimmt. Dies kann auf bestimmte Kantenarten, welche die Arten der Verknüpfung von Belangen widerspiegeln, eingeschränkt werden. Bevor dies implementiert werden kann, muss untersucht werden, ob die Funktionalität mit den im Enterprise Architect gegebenen Möglichkeiten realisiert werden kann. Ist dies nicht der Fall, so müssen Modelle aus dem Enterprise Architect zunächst mit Hilfe von JGraLab in Graphen überführt werden, damit anschließend die Slices unter Anwendung der Graphenabfragesprache Graph Repository Query Language (GreQL) bestimmt werden können. Die Funktionalitäten sollen in einem gemeinsamen Software-Baustein realisiert werden, der sich konform zu den für den Enterprise Architect vorgegebenen Schnittstellen verhalten muss und keine Konflikte im Programmablauf verursachen kann.
In der vorliegenden Forschungsarbeit wird ein Leitfaden zur Überprüfung von Geschäfts-modellen entwickelt. Dabei wird insbesondere die Situation junger, innovativer Unter-nehmen (Startups) berücksichtigt. Diese Unternehmen agieren unter einer hohen Unsi-cherheit oder Ungewissheit. Es ist daher kaum möglich über quantitative Daten eine so-lide Prognose für den Erfolg des Unternehmens abzugeben. Die Evaluation von innovativen Geschäftsmodellen stellt eine Forschungslücke dar.
Ziel dieser Arbeit ist es das nötige Wissen zur Sicherstellung einer korrekten Datenhistorie in einem Business Intelligence System zu liefern. Dabei wird vor allem auf das Phänomen von sich langsam verändernden Dimensionen (Slowly Changing Dimensions) eingegangen, das eine Optimierung der Datenhistorie darstellt. Der in der Wirtschaft nicht ganz eindeutige Begriff "Business Intelligence" wird nach [Kemper et al., 2006] als integrierter, unternehmensspezifischer IT-Gesamtansatz zur betrieblichen Entscheidungsunterstützung definiert. Dazu zählen im Einzelnen der ETL-Prozess, das Data Warehousing und das Online Analytic Processing. Weiterhin zählen dazu noch das Data Mining, das Reporting und die Präsentation (Dashboard und Portale). In Datenbanksysteme gibt es die Möglichkeit Slowly Changing Dimensions gezielt zu speichern. Dies geschieht im ETL-Prozess. Bevor die Daten in die Zieldatenbank geladen werden, werden sie speziell transformiert. Type 1 SCD stellt den einfach Fall des Updates dar. Der alte Wert wird lediglich mit dem neuen Wert überschrieben. Somit wird nur der aktuelle Stand eines DWH dargestellt. Type 3 SCD wird dagegen am seltensten verwendet. Hierbei wird eine weitere Spalte hinzugefügt, die den neuen Zustand anzeigt. In der alten spalte bleibt stets der originale Zustand gespeichert. Im Gegensatz zu Type 2 SCD kann hier nur der originale und der aktuelle Zustand angezeigt werden. Zwischenstände sind nicht möglich Diese Technik wird am seltensten verwendet ([Kimball et al., 2000]). Bei Type 2 SCD wird eine Historisierung durchgeführt. Dazu wird der alte Datensatz kopiert und mit der Änderung eingefügt. Zur eindeutigen Identifikation wird ein Ersatzschlüssel eingefügt. Der alte Schlüssel bleibt den Datensätzen als Attribut erhalten. Außerdem erhalten der alte und der neue Datensatz ein Start und Endedatum. So können beliebig viele Zustände über die Zeit gespeichert werden. Type 2 SDC ist die am häufigsten verwendete Methode. Weiterhin können zur Historisierung von Slowly Changing Dimensions Mischformen bzw. Erweiterungen dieser drei Arten verwendet werden.
Ziel dieser Bachelorarbeit war es, in die Musiknoten-Erkennungs Software AudiVeris eine Bildvorverarbeitung einzubauen, damit auch aus fehlerbehafteten Notenbildern Daten extrahiert werden können. Der Ablauf startet mit einer Binarisierung durch ein regionales Otsu Verfahren. Daraufhin wird das Notenblatt nach etwaigen Krümmungen abgesucht, wie sie z.B. eine Buchfalz verursachen würde. Dazu wird die Hough-Transformation zur Linienfindung und der K-Means-Algorithmus zur Cluster-Detektion verwendet. Aufbauend wird das Notenbild unter Benutzung der gefundenen Krümmung geebnet.
Auf landwirtschaftlichen Flächen ausgebrachte Pflanzenschutzmittel (PSM) können über diffuse Eintragswege (z.B. Oberflächenabfluss) auch in Gewässer gelangen, und eine Bedrohung für die aquatische Lebensgemeinschaft darstellen. Zum Schutz der aquatischen Gemeinschaft werden im derzeitigen Verfahren der deutschen PSM-Zulassung bereits bei Bedarf spezifische Anwendungsbestimmungen festgelegt. Über diese Maßnahmen hinaus, können jedoch weitere Ansätze sinnvoll sein.
Vor diesem Hintergrund wurden in der vorliegenden Dissertation Gewässer innerhalb einer Acker- und einer Weinanbauregion in Deutschland hinsichtlich ihrer PSM-Exposition in Folge von Oberflächenabfluss und (mögliche) Effekte auf aquatische Makroinvertebraten untersucht, um zu überprüfen, ob eine Umsetzung von Risikominderungsmaßnahmen in diesen Gebieten notwendig wäre. Die Ergebnisse zeigten, dass Gewässer in beiden Gebieten PSM-Konzentrationen ausgesetzt sind, in Folge derer Effekte auf die Makroinvertebraten zu erwarten sind. In der Ackeranbauregion war die beobachtete Toxizität dabei überwiegend auf die Insektizide Lambda-Cyhalothrin (in der Wasserphase) und Alpha-Cypermethrin (in der Sedimentphase) zurückzuführen. In der Weinanbauregion waren dagegen Rückstände von Fungiziden von übergeordneter Bedeutung und neben organischen Fungiziden wurden in diesen Gewässern außerdem ökotoxikologisch bedenkliche Kupferkonzentrationen in der Wasser- als auch in der Sedimentphase gefunden. In der Ackeranbauregion wurden neben der PSM-Exposition auch Effekte der PSM auf die Gemeinschaft der aquatischen Gemeinschaften im Freiland untersucht. Die Makroinvertebratengemeinschaft wurde insgesamt überwiegend von, gegenüber PSM toleranten Arten dominiert, was eine hohe PSM-Exposition an allen Probestellen vermuten lässt. Diese Vermutung spiegelt sich auch in den erhöhten PSM-Rückständen wider (logTUMax > -2; TUMax: Maximale Toxic Unit per sample), die in den Proben der Sedimentphase festgestellt wurden. An zwei Probestellen nahm die Abundanz und Anzahl sensitiver Arten (indiziert durch das SPEcies At Risk-Indikatorsystem) in Folge toxischer Lambda-Cyhalothrinkonzentrationen in der Wasserphase (logTUMax > -0,6) ab. An gering mit PSM belasteten Gewässern (logTUMax < -3,5) konnte dagegen eine signifikante Beeinträchtigung sensitiver Makroinvertebraten nicht festgestellt werden. Insgesamt zeigen die Ergebnisse, dass in beiden Untersuchungsgebieten die Umsetzung von Maßnahmen zum Schutz der aquatischen Gemeinschaft notwendig wäre.
Für Oberflächenabfluss werden häufig bewachsene Uferrandstreifen als Minderungsmaßnahme vorgeschlagen. Ein mindernder Einfluss auf die PSM-Konzentration mit zunehmender Breite konnte jedoch für die bereits in den Untersuchungsregionen vorhandenen Uferrandstreifen nicht festgestellt werden. Dieses Ergebnis konnte in der Weinanbauregion auf die hohe Anzahl an befestigten Feldwegen und damit verbundener Wegeinleitungen zurückgeführt werden, die den Oberflächenabfluss in konzentrierter Form zügig in Richtung Gewässer ableiten, und damit die Reduktionseffektivität der Uferrandstreifen erheblich reduzieren. Ein ähnlicher Prozess fand vermutlich auch in der Ackeranbauregion statt, in Folge einer hohen Anzahl an Erosionsrillen, die ein flächenhaftes Eindringen des Oberflächenabflusses in den Randstreifen und damit eine effektive Filterung verhindern. Außerdem dürften Entwässerungsgräben, welche den Oberflächenabfluss von den landwirtschaftlichen Flächen in die Gewässer weiterleiten, zu den beobachteten PSM-Konzentrationen trotz breiter Uferrandstreifen beigetragen haben.
Um PSM-Einträge über Oberflächenabfluss effektiv zu reduzieren, sollten Risikominderungsmaßnahmen umgesetzt werden, die auf die jeweilig identifizierten Haupteintragswege fokussieren. Als geeignete Maßnahmen wurden mit Gras bewachsene Feldwege und bewachsene Gräben oder Rückhaltebecken identifiziert. Darüber hinaus kann auch die Optimierung bereits vorhandener Uferrandstreifen hinsichtlich ihrer Reduktionseffektivität sinnvoll sein. Insgesamt zeigen die Daten der beiden Freilanduntersuchungen die große Bedeutung, Maßnahmen spezifisch für die jeweilige PSM-Belastungssituation von Gewässern zu identifizieren. Um diesen Prozess zu unterstützen wurde im Rahmen der vorliegenden Dissertation ein Leitfaden für die Identifizierung geeigneter Risikominderungsmaßnahmen an belasteten Gewässern entwickelt. Basierend auf einer Kartierung expositionsrelevanter landschaftlicher Parameter wird ein Set an geeigneten Maßnahmen für die jeweilige Belastungssituation vorgeschlagen. Anhand einer Bewertung der Effektivität dieser Maßnahmen PSM-Einträge zu reduzieren, ihrer Umsetzbarkeit und zu erwartenden Akzeptanz kann der Anwender schließlich die jeweiligen Maßnahmen zur Umsetzung auswählen. Der Leitfaden leistet damit einen wichtigen Beitrag zur praktischen Implementierung von Minderungsmaßnahmen.
Die laserinduzierte Plasmaspektroskopie (”Laser Induced Breakdown Spectroscopy”, im Folgenden auch ”LIBS” genannt) stellt eine schnelle und berührungslose Messmethode zur Elementanalyse von festen, flüssigen oder gasförmigen Stoffen unter normalen Umgebungsbedingungen ohne besondere Probenvorbereitung dar. Dazu wird ein gepulster Laser, dessen Intensität einen bestimmten Grenzwert überschreiten muss, auf eine Probe fokussiert. Das dort bestrahlte Material verdampft schlagartig und es bildet sich bei einer Temperatur von rund 10000 K ein Plasma aus. Die angeregten Atome und Ionen im Plasma strahlen bei der Rückkehr in energetisch niedrigere Zustände ein charakteristisches optisches Emissionsspektrum ab, welches über eine schnelle spektroskopische Analyse die Elementzusammensetzung des untersuchten Materials liefert. LIBS bietet in diesem Fall auch die Möglichkeit, ein unkompliziertes und bildgebendes Messverfahren aufzubauen, indem Elementverteilungen auf einer topographischen Oberfläche analysiert werden, um beispielsweise Materialübergänge, Einschlüsse oder Verschmutzungen sicher zu detektieren. Bei unebenen Oberflächen wird eine ständige Anpassung des Laserfokus an die Probenkontur benötigt, da die notwendige Intensität zur Erzeugung des Plasmas nur im Fokus aufgebracht werden kann. Als Grundlage dafür dient ein neu entwickelter Fokussieralgorithmus, der ohne jegliche Zusatzgeräte auskommt, und die Reproduzierbarkeit von LIBS-Messungen deutlich steigern kann, da die Messungen kontrolliert im Fokus stattfinden. Durch ihn ergeben sich neue Möglichkeiten des sogenannten „Element-Mappings", dem Erzeugen von Elementlandkarten, welche die Elementverteilungen in Falschfarben grafisch darstellen. Dabei ist das System nun nicht mehr auf eine ebene Oberfläche angewiesen, sondern kann beliebige Strukturen, auch mit scharfen Kanten und Löchern, sicher vermessen. Als Ergebnis erhält man ein flächiges Höhenprofil, welches zusätzlich die Elementinformationen für jeden Messpunkt beinhaltet. Dies erleichtert es dem Benutzer, gezielt Punkte von Interesse schnell wiederzufinden und zu analysieren. Die vorliegende Arbeit beschreibt die Entwicklung eines bildgebenden Low-Power-LIBSSystems mit niedriger Pulsenergie und hoher Pulsrate, welches sich mit dem dazugehörigen
Fokussieralgorithmus automatisiert an unebene Probenoberflächen anpassen kann. Als Ergebnisse werden die Analysen von ausgewählten metallhaltigen, geologischen, organischen und archäologischen Proben bzw. Fundstücken gezeigt.
Das Ziel der vorliegenden Bachelorarbeit war die Untersuchung
verschiedener Methoden zur Ermittlung und Verbesserung der User
Experience eines Softwareproduktes einer mittelständigen Firma. Hierzu
wurde zunächst ein geeignetes Designkonzept und dazu passende Methoden
der Evaluation und des Testings ermittelt und dann auf das Produkt
angewendet. Mit dem Leitgedanken des User-Centered-Designs wurden
Methoden ausgewählt, welche die Nutzerinnen/Nutzer ins Zentrum der
Untersuchung stellten.
So konnte mit Hilfe der Nutzerinnen/Nutzer des Produktes
herausgefunden werden, wie die User-Experience ausfällt und wie diese
noch verbessert werden kann. In einer Fokusgruppe sind Prototypen für
die Verbesserung und Weiterentwicklung der Software entstanden.
Diese Bachelorarbeit ist sowohl für Sofwaredesignerinnen/-designer,
als auch für Studentinnen/Studenten der Mensch-Maschine-Kommunikation
interessant.
Die vorliegende Arbeir zeichnet eine Kategorisierung der im deutschen Fernsehen und Rundfunk vorhandenen Gewinnspiele auf. Beginnend mit der Erläuterung von grundlegenden Begrifflichkeiten und dem Beleuchten der Verfahren zur Teilnehmerauswahl wird der Leser an das Thema der Arbeit herangeführt. Fortgesetzt wird mit der eigentlichen Darstellung der momentan vorhandenen Gewinnspielformate. Abschließend gibt die Arbeit eine erste Festlegung und Aufrechnung einer Gewinnwahrscheinlichkeit an.
Der seit Jahren anhaltende Hype um das mobile Internet und der damit verbundenen Technologie der mobilen Anwendungsprogramme scheint nicht abzureißen. Das enorme ökonomische Potential dieses Markts treibt die Wirtschaft stetig zu neuen Ideen der Monetarisierung. Die Ursachen dieses Phänomens werden jedoch selten hinterfragt. Auch hat die wissenschaftliche Forschung auf dem Gebiet des "Mobilseins" bisher kein einheitliches Bild über die Ursachen und Wirkungsketten entwickelt. Versuche des Ableitens von Zusammenhängen durch Studien an artverwandten Medien, wie z.B. dem Computer oder dem stationären Internet, werden kontrovers diskutiert. Durch eine Verknüpfung der Forschungsströme der Mediennutzungsmotive und der Kundenbindung wird die Arbeit ein neues Untersuchungsmodell vorstellen. Anhand der Ergebnisse einer durchgeführten, quantitativen Datenerhebung wird gezeigt, dass die Motive nach Mobilität, nach Beschaffung von Informationen und nach Unterhaltung die bedeutsamsten Treiber von Kundenzufriedenheit bei mobilen Applikationen darstellen. Auch wird gezeigt, dass zwischen der Kundenzufriedenheit und den weiteren Determinanten der Kundenbindung eine signifikante Korrelation besteht.
Studies have shown that runoff and spray-drift are important sources of nonpoint-source pesticide pollution of surface waters. Owing to this, public concern over the presence of pesticides in surface and ground water has resulted in intensive scientific efforts to find economical, yet environmentally sound solutions to the problem. The primary objective of this research was to assess the effectiveness of vegetated aquatic systems in providing buffering between natural aquatic ecosystems and agricultural landscape following insecticide associated runoff and spray-drift events. The first set of studies were implemented using vegetated agricultural ditches, one in Mississippi, USA, using pyrethroids (bifenthrin, lambda-cyhalothrin) under simulated runoff conditions and the other in the Western Cape, South Africa using the organophosphate insecticide, azinphos-methyl (AZP), under natural runoff and spray-drift conditions. The second set of studies were implemented using constructed wetlands, one in the Western Cape using AZP under natural spray-drift conditions and the other in Mississippi, USA using the organophosphate MeP under simulated runoff conditions. Results from the Mississippi-ditch study indicated that ditch lengths of less than 300 m would be sufficient to mitigate bifenthrin and lambda-cyhalothrin. In addition, data from mass balance calculations determined that the ditch plants were the major sink (generally > 90%) and/or sorption site for the rapid dissipation of the above pyrethroids from the water column. Similarly, results from the ditch study in South Africa showed that a 180 m vegetated system was effective in mitigating AZP after natural spray drift and low flow runoff events. Analytical results from the first wetland study show that the vegetated wetland was more effective than the non-vegetated wetland in reducing loadings of MeP. Mass balance calculations indicated approximately 90% of MeP mass was associated with the plant compartment. Ninety-six hours after the contamination, a significant negative acute effect of contamination on abundances was found in 8 out of the 15 macroinvertebrate species in both wetland systems. Even with these toxic effects, the overall reaction of macroinvertebrates clearly demonstrated that the impact of MeP in the vegetated wetland was considerably lower than in the non-vegetated wetland. Results from the constructed wetland study in South Africa revealed that concentrations of AZP at the inlet of the 134 m wetland system were reduced by 90% at the outlet. Overall, results from all of the studies in this thesis indicate that the presence of the plant compartment was essential for the effective mitigation of insecticide contamination introduced after both simulated and natural runoff or spray-drift events. Finally, both the vegetated agricultural drainage ditch and vegetated constructed wetland systems studied would be effective in mitigating pesticide loadings introduced from either runoff or spray-drift, in turn lowering or eliminating potential pesticide associated toxic effects in receiving aquatic ecosystems. Data produced in this research provide important information to reduce insecticide risk in exposure assessment scenarios. It should be noted that incorporating these types of best management practices (BMPs) will decrease the risk of acute toxicity, but chronic exposure may still be an apparent overall risk.
Bei einigen Arzneimittel (z.B. Antibiotika, Kontrastmittel, Betablocker) wird ein Teil des Wirkstoffs unmetabolisiert ausgeschieden und gelangt so über das Abwasser in kommunale Kläranlagen. Studien haben gezeigt, dass viele dieser Wirkstoffe durch eine konventionelle Abwasserbehandlung nicht effektiv abgebaut werden und somit in Oberflächengewässern nachweisbar sind. Eines der effektivsten Verfahren zur Entfernung organischer Mikroverunreinigungen und Mikroorganismen ist die Umkehrosmose. Ein bedeutender Nachteil dieses Verfahrens ist die Entsorgung der anfallenden Konzentrate, die erhöhte Konzentrationen von Mikroverunreinigungen und Mikroorganismen enthalten können. Dabei ist nicht auszuschließen, dass eine direkte Einleitung dieser Konzentrate das Ökosystem eines Gewässers schädigt. Um dieses Risiko zu minimieren, wäre eine gesonderte Behandlung des Konzentrats vor der Einleitung sinnvoll. In der hier vorliegenden Arbeit wurde die Ozonung als mögliches Oxidationsverfahren untersucht. Die untersuchten Konzentratproben stammen aus einer Kläranlage, in der der Ablauf nach Umkehrosmosebehandlung in das Grundwasser infiltriert wird. Durch die Untersuchungen konnte gezeigt werden, dass durch die angewendeten Ozondosen die ausgewählten Arzneistoffe weitgehend oxidiert wurden, obwohl das Umkehrosmosekonzentrat einen sehr hohen TOC "Gehaltes von bis zu 46 mg/L aufwies. Zur Vorbeugung von Membranfouling wird Membrananlagenzuläufen, in diesem Fall dem Kläranlagenablauf, häufig Chlor zugesetzt. Eine Vergleichsstudie mit vorchlorierten und nicht vorchlorierten Kläranlagenabläufen zeigte einen Anstieg der Ozonstabilität nach der Chlorierung. Daraus resultierte aber auch eine Abnahme an OH-Radikalen. Die höhere Ozonstabilität könnte dazu führen, dass über eine direkte Ozonreaktion die Oxidation von Stoffen mit einer höheren Geschwindigkeitskonstante zweiter Ordnung bevorzugt würde. Der Abbau der Stoffe, die hauptsächlich über OH-Radikale oxidiert werden, würde dann gleichzeitig herabgesetzt. Für die Wirkstoffgruppe der Betablocker, die permanent in Kläranlagenabläufen nachweisbar ist, wurden die Geschwindigkeitskonstanten mit Ozon- sowie OH-Radikalen ermittelt. Untersucht wurden Acebutolol, Atenolol, Metoprolol und Propranolol. Betablocker enthalten zwei funktionelle Gruppen, die reaktiv gegenüber Ozon sind, zum einen ein sekundäres Amin und zum anderen einen aktivierten aromatischen Ring. Die Amingruppe ist dafür verantwortlich, dass die Geschwindigkeit der Ozonreaktion pH-Wert abhängig ist, da nur das deprotonierte Amin schnell mit Ozon reagieren kann. Die Geschwindigkeitskonstante für die Reaktion von Acebutolol, Atenolol and Metoprolol mit Ozon liegt bei etwa 2000 M-1 s-1, wo hingegen Propranolol mit ~1.0 105 M-1 s-1 etwa zwei Größenordnungen schneller reagiert. Die Konstanten für die Reaktionen mit OH-Radikalen liegen bei 0.5-1.0 × 1010 M-1 s-1. Die während der Ozonreaktion von Metoprolol und Propranolol gebildeten Oxidationsprodukte (OPs) wurden über HPLC-Tandem-MS identifiziert. Die Ozonreaktionen führten zur Bildung 23 OPs im Fall des Metoprolols und etwa 30 OPs beim Propranolol. Um die Auswirkung des pH-Wertes sowie der OH-Radikalreaktion auf die OP-Bildung zu untersuchen, wurden die Experimente bei pH 3 und 8, sowie mit und ohne Zugabe des Radikalfängers tert-Butanol durchgeführt. Die Menge der gebildeten OH-Radikale wurde durch den Zusatz von para-Chlorbenzoesäure ermittelt. Metoprolol: Der Einfluss des protonierten und des nicht protonierten Metoprolols auf die Menge der gebildeten OH-Radikale wurde über einen Vergleich der gemessenen para-Chlorbenzoesäureabnahme mit modellierten Werten ermittelt (Model: Acuchem). Es lassen sich dabei bessere Übereinstimmungen erzielen, wenn die Modelannahmen bei der primären Ozonreaktion des nicht protonierten Moleküls auf einer stöichiometrischen Bildung eines OH-Radikalvorproduktes (•O2-) basieren. Die Modellierung der Reaktion der protonierten Spezies unterstützt ebenfalls die These der Bildung des Vorproduktes •O2-, allerdings in unterstöichiometrischer Menge. Die Untersuchung eines Abwassers und eines Kläranlagenablaufs, die mit 10 μmol/L Metoprolol versetzt wurden, zeigte eine OP-Bildung ähnlich der bei pH 8 ohne Radikalfängerzugabe. Dies deutet auf einen signifikanten Einfluss der OH-Radikalreaktion für die Bildung der OP in realer Abwassermatrix hin. Propranolol: Das primäre OP der Ozonreaktion des Propranolols (OP-291) wird über einen Angriff am Naphthalenring gebildet, der zu einer Ringöffnung und der Bildung zweier Aldehydfunktionen führt. OP-291 wird vermutlich über eine OH-Radikalreaktion weiter zu OP-307 oxidiert, welches anschließend zu OP-281 weitereagiert. Durch die mittels Massenspektrometrie identifizierten chemischen Strukturen der OPs, können die vorgeschlagenen Bildungsreaktionen sowohl über direkte Ozonreaktion als auch über OH-Radikalreaktion bestätigt werden. Als Fazit kann festgestellt werden, dass eine Ozonung eines Kläranlagenablaufes zu der Bildung einer Vielzahl von OPs führt, die alle ein unbekanntes toxikologisches Potential haben (z.B. Bildung von Aldehydfunktionen).
This minor thesis shows a way to optimise a generated oracle to achieve shorter runtimes. Shorter runtimes of test cases allows the execution of more test cases in the same time. The execution of more test cases leads to a higher confidence in the software-quality. Oracles can be derived from specifications. However specifications are used for different purposes and therefore are not necessarily executable. Even if the are executable it might be with only a high runtime. Those two facts come mostly from the use of quantifiers in the logic. If the quantifier-range is not bounded, respectively if the bounds are outside the target language-datatype-limits, the specification is too expressive to be exported into a program. Even if the bounds inside the used datatype-limits, the quantification is represented as a loop which leads to a runtime blowup, especially if quantifiers are nested. This work explains four different possibilities to reduce the execution time of the oracle by manipulating the quantified formular whereas this approach is only applicable if the quantified variables are of type Integer.
E-KRHyper is a versatile theorem prover and model generator for firstorder logic that natively supports equality. Inequality of constants, however, has to be given by explicitly adding facts. As the amount of these facts grows quadratically in the number of these distinct constants, the knowledge base is blown up. This makes it harder for a human reader to focus on the actual problem, and impairs the reasoning process. We extend E-Hyper- underlying E-KRhyper tableau calculus to avoid this blow-up by implementing a native handling for inequality of constants. This is done by introducing the unique name assumption for a subset of the constants (the so called distinct object identifiers). The obtained calculus is shown to be sound and complete and is implemented into the E-KRHyper system. Synthetic benchmarks, situated in the theory of arrays, are used to back up the benefits of the new calculus.
In einigen Bereichen des automatischen Theorembeweisens benötigt man das Wissen, dass Konstanten paarweise ungleich sind. Um dieses zu erreichen, fügt man Fakten, die dieses Wissen explizit angeben, zu den Wissensbasen hinzu. Wenn man diese Eigenschaft für viele Konstanten definieren muss, wird die Klauselmenge der Wissensbasen schnell sehr umfangreich und wegen der vielen - eigentlich irrelevanten - Ungleichheiten kann man den Blick auf das eigentlich formalisierte Problem verlieren. Da die Größe der Wissensbasis in vielen Fällen Einfluss auf die Geschwindigkeit hat, ist es auch aus diesem Grund sinnvoll, die Anzahl dieser Fakten gering zu halten. Die unique name assumption erlaubt auf die Einführung der Ungleichheits-Fakten zu verzichten, da sie festlegt, dass zwei Konstanten genau dann gleich sind, wenn ihre Interpretationen identisch sind. Auf diesem Wege lässt sich das Aufblähen von Wissensbasen mit Ungleichheits-Fakten verhinde. In dieser Arbeit wird der E-Hyper-Tableau-Kalkül erweitert um die unique name assumption nutzen zu können. Der in dieser Arbeit entwickelte Kalkül ist vollständig und korrekt, was durch formale Beweise in dieser Arbeit belegt wird. Um zu zeigen, dass die native Behandlung von Ungleichheiten dem Einführen von Ungleichheits-Fakten überlegen ist, wird der Kalkül in den Theorembeweiser E-KRHyper implementieren. Der Theorembeweiser E-KRHyper ist ein etabliertes System und basiert in seiner ursprünglichen Version auf dem E-Hyper-Tableau. Mit systematischen Tests wird dann gezeigt, dass die entwickelte Implementierung des erweiterten Kalküls nie schlechter ist, als der original E-KRHyper, diesen aber in einigen Fällen in der Ausführungsgeschwindigkeit deutlich übertrifft.
ZUSAMMENFASSUNG
Gebäude und Infrastrukturen prägen das Bild unserer Kulturlandschaften und erbringen essentielle Dienstleistungen für die menschliche Gesellschaft. Sie wirken sich jedoch auch unweigerlich auf die natürliche Umwelt aus, z.B. durch die strukturelle Veränderung von Lebensräumen. Überdies gelten sie aufgrund der Freisetzung chemischer Inhaltsstoffe aus den eingesetzten Baumaterialien als potentielle Verursacher negativer Umweltauswirkungen. Galvanische Anoden und organische Beschichtungen, die an Stahlbauwerken regelmäßig zum Schutz vor Korrosion zum Einsatz kommen, sind als Baumaterialien für die Verkehrsinfrastruktur von besonderer Bedeutung. In direktem Kontakt mit einem Wasserkörper oder indirekt über den Abfluss nach einem Niederschlagsereignis können zahlreiche Chemikalien in aquatische Lebensräume emittiert werden und eine Gefahr für Wasserorganismen darstellen. Zur Beurteilung der Umweltverträglichkeit von Bauprodukten existiert bislang kein einheitlicher Untersuchungs- und Bewertungsansatz. Zudem stellen galvanische Anoden und organische Beschichtungen aufgrund ihrer Zusammensetzung besondere Herausforderungen an deren ökotoxikologische Charakterisierung. Ziel der vorliegenden Arbeit war es daher, die Gefährdung der aquatischen Umwelt durch galvanische Anoden und Korrosionsschutzbeschichtungen mithilfe ökotoxikologischer Untersuchungen zu beurteilen und standardisierte Bewertungsverfahren für diese Materialien zu entwickeln.
Die Untersuchung des möglichen Umwelteinflusses durch die Anwendung von Anoden an Offshore-Anlagen erfolgte auf drei trophischen Ebenen. Um eine möglichst realistischste und zuverlässige Abschätzung zu gewährleisten, wurden die Experimente in natürlichem Meerwasser und unter natürlichen pH-Bedingungen durchgeführt. Zudem erfolgte die Exposition gegenüber dem Anodenmaterial und deren Hauptbestandteilen Zink und Aluminum unter Simulation eines Worst-Case-Szenarios. Das untersuchte Anodenmaterial verursachte eine schwache Hemmung des Algenwachstums; auf die getesteten Leuchtbakterien und Flohkrebse zeigte es keine akute Toxizität. Allerdings wurde eine Erhöhung der Aluminium- und Indiumgehalte in den Krebsen festgestellt. Auf Grundlage dieser Ergebnisse wurde keine direkte Gefahr für marine Organismen durch den Einsatz galvanischer Aluminium-Anoden identifiziert. Eine Anreicherung von Metallen in Krebstieren und ein daraus resultierender Eintrag ins marine Nahrungsnetz kann jedoch nicht ausgeschlossen werden.
Die Umweltverträglichkeit organischer Beschichtungssysteme wurde exemplarisch für eine Auswahl relevanter Produkte auf Basis von Epoxidharzen (EP) und Polyurethanen bewertet. Dazu wurden beschichtete Probeplatten schrittweise über 64 Tage ausgelaugt. Die gewonnenen Eluate wurden systematisch auf ihre ökotoxikologischen Effekte (akute Toxizität gegenüber Algen und Leuchtbakterien, mutagene und estrogenartige Wirkungen) und chemische Zusammensetzung analysiert. Dabei zeigten sich insbesondere die EP-basierten Beschichtungen durch die Verursachung erheblicher bakterieller Toxizität und estrogenartiger Wirkung auffällig. Als primärer Urheber dieser Effekte wurde das kontinuierlich freigesetzte 4-tert-Butylphenol identifiziert, dessen Konzentration in allen Proben die predicted no effect concentration für Süßwasser überschritt. Gleichzeitig hat sich gezeigt, dass die Gesamttoxizität nicht durch den Gehalt an 4-tert-Butylphenol in den Produkten bestimmt wird, sondern vom Freisetzungsmechanismus dieser Verbindung aus den untersuchten Polymeren abhängig ist. Diese Ergebnisse deuten darauf hin, dass eine Optimierung der Zusammensetzung, beispielsweise aufgrund einer besseren Polymerisation der Inhaltsstoffe, zu einer Reduzierung von Emissionen und damit zu einer verminderten Belastung der Umwelt führen kann.
Regen, Temperaturwechsel und Sonneneinstrahlung können zur Verwitterung polymerer Korrosionsschutzbeschichtungen führen. Um den Einfluss lichtbedingter Alterung auf die Ökotoxizität von Deckbeschichtungen zu erfassen, wurde die Emissionen und damit verbundene negative Auswirkungen von UV-bestrahlten und unbehandelten EP-basierten Produkten miteinander verglichen. Nach statischer Auslaugung stand dabei die Untersuchung estrogenartiger und bakterien-toxischer Wirkungen im Fokus, die sowohl im klassischen Mikrotiterplattenformat als auch in Kopplung mit Dünnschichtplatten detektiert wurden. Beide untersuchten Materialien zeigten nach Bestrahlung eine signifikante Abnahme der ökotoxikologischen Effekte bei gleichzeitiger Verringerung der Freisetzung von 4-tert-Butylphenol. Jedoch wurden auch Bisphenol A und verschiedene Strukturanaloga als photolytische Abbauprodukte der Polymere nachgewiesen, die ebenfalls zur beobachteten Wirkung beitrugen. Die Identifizierung bioaktiver Inhaltsstoffe konnte dabei durch die erfolgreiche Kombination der in-vitro-Bioassays mit chemischen Analysen im Sinne einer effektgeleiteten Analytik unterstützt werden. Die vorliegenden Ergebnisse liefern wichtige Hinweise für die Beurteilung der generellen Eignung von Deckbeschichtungen auf Basis von Epoxidharzen.
Das im Rahmen der vorliegenden Studie entwickelte Untersuchungskonzept konnte erfolgreich auf eine Auswahl relevanter Baumaterialien angewendet werden. Die gezielte Anpassung einzelner Standardmethoden erlaubte dabei eine individuelle Produktbewertung. Gleichzeitig wurde sowohl die Zweckmäßigkeit der angewendeten ökotoxikologischen Methoden für die Untersuchung von Materialien unbekannter und komplexer Zusammensetzung bestätigt als auch die Basis für eine systematische Bewertung der Umweltverträglichkeit von Korrosionsschutzprodukten geschaffen. Vor dem Hintergrund der Europäischen Bauprodukteverordnung kann der gewählte Ansatz dem einfachen Vergleich verschiedener Baumaterialien z.B. innerhalb einer Produktgruppe dienen und damit die Auswahl umweltverträglicher Produkte vereinfachen und zur Optimierung einzelner Rezepturen beitragen.
Aufgrund der zunehmenden Verbreitung des mobilen Internets, können E-Mails direkt von mobilen Geräten gesendet und empfangen werden. Inhalte digitaler Kommunikation sollten verschlüsselt werden, um zu verhindern, dass sie abgefangen und manipuliert werden. Entsprechende Verfahren setzen kryptographische Schlüssel ein, die zuvor ausgetauscht werden müssen. Es muss sichergestellt sein, dass ein kryptographischer Schlüssel tatsächlich der Person zugeordnet ist, zu der er angeblich gehört. Im Rahmen dieser Arbeit wurde ein Konzept für eine Smartphone-Anwendung entwickelt, um kryptographische Schlüssel im persönlichen Kontakt auszutauschen. Das Konzept besteht aus dem Entwurf eines komponentenbasierten Frameworks, mit dem sich Daten sicher austauschen lassen. Das Framework wurde anschließend erweitert und als Grundlage für die Entwicklung einer Smartphone-Anwendung eingesetzt. Die Anwendung ermöglicht es, kryptographische Schlüssel zu erzeugen, zu verwalten und im persönlichen Kontakt auszutauschen. Für den Austausch wird die Near Field Communication genutzt. Durch implementierte Sicherheitsmechanismen ist gewährleistet, dass der Schlüsselaustausch weder abgehört, noch gezielt manipuliert werden kann. In Zukunft können das Konzept und die Anwendung erweitert und angepasst werden, um sie in anderen Arbeiten einzusetzen.
Die Verwendung physiologischer Indikatoren, welche die Reaktion von Organismen auf Veränderungen ihrer Umwelt widerspiegeln, bietet ein großes Potenzial für ökologische Studien. Durch die Analyse des physiologischen Zustandes von Organismen ermöglichen diese Indikatoren eine schnellere Erfassung von Veränderungen in aquatischen Ökosystemen als es durch die Betrachtung ökologischer Indikatoren, wie z. B. der Struktur der Benthosgemeinschaft oder des Reproduktionserfolges einzelner Arten, möglich ist. Dieser Zeitvorteil kann sowohl die Effektivität der Habitatbewertung als auch experimenteller Studien in der aquatischen Ökologie erhöhen. In diesem Zusammenhang konzentriert sich die vorliegende Arbeit auf physiologische Messgrößen, wie die Konzentration von Energiespeicherstoffen, den zellulären Energiestatus (Adenylate Energy Charge) oder die Stoffwechselaktivität in vivo, die den energetischen Zustand oder den aktuellen Energieverbrauch von Organismen charakterisieren, sowie auf das RNA:DNA-Verhältnis als Wachstumsindikator. Obwohl diese Indikatoren in der marinen Ökologie, und in jüngerer Zeit auch in der Ökotoxikologie, regelmäßig verwendet werden, haben sie in der limnischen Ökologie bisher wenig Anwendung gefunden. Um die Anwendung physiologischer Indikatoren in diesem Bereich zu verstärken verfolgt die Dissertation zwei Ziele. Zum einen verdeutlicht sie das Potenzial der einzelnen physiologischen Indikatoren, zum anderen stellt sie Grundlagenwissen zu ausgewählten ökophysiologischen Aspekten einheimischer und gebietsfremder Arten der Ordnung Amphipoda bereit, die als Schlüsselarten aquatischer Lebensräume als besonders geeignet für die Bestimmung physiologischer Indikatoren angesehen werden. In diesem Sinne werden in Kapitel 2 sowohl die grundlegenden Annahmen, als auch die theoretischen und methodischen Grundlagen für die Bestimmung physiologischer Indikatoren aufgezeigt und ihre Anwendbarkeit in Fallstudien verdeutlicht. Die durchgeführten Experimentalstudien (Kapitel 3−5) liefern Informationen zu (i) den art- und geschlechtsspezifischen Unterschieden in der saisonalen Variation des energetischen Zustandes natürlicher Gammarus Populationen (G. fossarum, G. pulex), (ii) den Unterschieden in der Stoffwechsel- und Bewegungsaktivität verschiedener Amphipoda-Arten (G. fossarum, G. roeselii und D. villosus), sowie (iii) den direkten Auswirkungen von Ammoniak auf die Physiologie und die Bewegungsaktivität von D. villosus. In Kapitel 6 werden abschließend die grundlegenden Schlussfolgerungen aus den durchgeführten Feld- und Laborstudien, sowie ihre Relevanz und Auswirkungen für die Anwendung physiologischer Indikatoren in der limnischen Ökologie diskutiert.
Das Ziel dieser Masterarbeit war es ein CRM System für das Assist Team der CompuGroup Medical zu entwickeln, welches Open Innovation in die Entwicklung der Minerva 2.0 Software integriert. Um dies zu erreichen wurden CRM Methoden mit Social Networ- king Systemen kombiniert, basierend auf der Forschung von Lin und Chen (2010, S. 11 – 30). Um die definierten Ziele zu erreichen wurde Literatur analysiert, wie ein CRM System und eine Online Community erfolgreich implementiert werden können und dies auf die Entwicklung der Minerva Community angewendet. Dabei wurde sich an den Design Science Richtlinien von Hevner u. a. (2004, S. 75 – 104) orientiert. Das fertige Produkt wurde basierend auf Kunden- und Managementanforderungen entworfen und wurde an- schließend aus Kunden- und Firmenperspektive evaluiert.
Cheops für VNUML - Erstellen und beobachten einer VNUML-Simulation per MausklickrnEs wird untersucht, wie Virtual Network User Mode Linux (VNUML), eine Software zur Simulation von Rechnernetzen, die aus virtualisierten Linux Instanzen aufgebaut werden, für den Benutzer besser handhabbar gemacht werden kann. Mit dem Linux-Paket VNUML, welches die dateigesteuerte Konfiguration virtueller Betriebssysteminstanzen ermöglicht, erhält der Anwender die Möglichkeit, komplexe Netzwerktopologien zu simulieren. Verschiedene Netzwerküberwachungsprogramme werden auf ihre Fähigkeit hin untersucht, eine laufende VNUML-Simulation zu erfassen und sinnvoll abzubilden. Dabei soll der Benutzer einen schnellen Überblick über die Funktion der simulierten Netzwerkumgebung, sowie nach Möglichkeit auch über deren Topologie erhalten können. Das Programm Cheops, welches der Netzwerküberwachung dient, wird erweitert, um nicht nur eine laufende Simulation abbilden und beobachten zu können, sondern darüber hinaus in der Lage zu sein, in jedem Schritt der Arbeit mit VNUML eingesetzt zu werden.
Das erweiterte Programm gestattet sowohl die Erstellung der VNUML-Topologiedatei, als auch das Starten und Steuern der Simulation. Damit werden der lange Kommandozeilenaufruf, sowie das Editieren der Konfigurationsdatei, durch einfach zu benutzende Funktionen in einer grafischen Oberfläche (GUI) ersetzt. Zur schnellen Kontrolle der vollen Funktionsfähigkeit der gestarteten Simulation sind keine weiteren Eingaben oder Konfigurationen nötig. Ebenso kann eine differenzierte Beobachtung verschiedener Netzwerkdienste während der Laufzeit der Simulation erfolgen. Die hierzu nötigen Werkzeuge sind im Paket Cheops für VNUML ebenfalls enthalten und speziell zur Anwendung mit VNUML-Simulationen vorkonfiguriert.
The model evolution calculus
(2004)
The DPLL procedure is the basis of some of the most successful propositional satisfiability solvers to date. Although originally devised as a proof procedure for first-order logic, it has been used almost exclusively for propositional logic so far because of its highly inefficient treatment of quantifiers, based on instantiation into ground formulas. The recent FDPLL calculus by Baumgartner was the first successful attempt to lift the procedure to the first-order level without resorting to ground instantiations. FDPLL lifts to the first-order case the core of the DPLL procedure, the splitting rule, but ignores other aspects of the procedure that, although not necessary for completeness, are crucial for its effectiveness in practice. In this paper, we present a new calculus loosely based on FDPLL that lifts these aspects as well. In addition to being a more faithful litfing of the DPLL procedure, the new calculus contains a more systematic treatment of universal literals, one of FDPLL's optimizations, and so has the potential of leading to much faster implementations.
The Living Book is a system for the management of personalized and scenario specific teaching material. The main goal of the system is to support the active, explorative and selfdetermined learning in lectures, tutorials and self study. The Living Book includes a course on 'logic for computer scientists' with a uniform access to various tools like theorem provers and an interactive tableau editor. It is routinely used within teaching undergraduate courses at our university. This paper describes the Living Book and the use of theorem proving technology as a core component in the knowledge management system (KMS) of the Living Book. The KMS provides a scenario management component where teachers may describe those parts of given documents that are relevant in order to achieve a certain learning goal. The task of the KMS is to assemble new documents from a database of elementary units called 'slices' (definitions, theorems, and so on) in a scenario-based way (like 'I want to prepare for an exam and need to learn about resolution'). The computation of such assemblies is carried out by a model-generating theorem prover for first-order logic with a default negation principle. Its input consists of meta data that describe the dependencies between different slices, and logic-programming style rules that describe the scenario-specific composition of slices. Additionally, a user model is taken into account that contains information about topics and slices that are known or unknown to a student. A model computed by the system for such input then directly specifies the document to be assembled. This paper introduces the elearning context we are faced with, motivates our choice of logic and presents the newly developed calculus used in the KMS.
Hyper tableaux with equality
(2007)
In most theorem proving applications, a proper treatment of equational theories or equality is mandatory. In this paper we show how to integrate a modern treatment of equality in the hyper tableau calculus. It is based on splitting of positive clauses and an adapted version of the superposition inference rule, where equations used for paramodulation are drawn (only) from a set of positive unit clauses, the candidate model. The calculus also features a generic, semantically justified simplification rule which covers many redundancy elimination techniques known from superposition theorem proving. Our main results are soundness and completeness, but we briefly describe the implementation, too.
We aim to demonstrate that automated deduction techniques, in particular those following the model computation paradigm, are very well suited for database schema/query reasoning. Specifically, we present an approach to compute completed paths for database or XPath queries. The database schema and a query are transformed to disjunctive logic programs with default negation, using a description logic as an intermediate language. Our underlying deduction system, KRHyper, then detects if a query is satisfiable or not. In case of a satisfiable query, all completed paths -- those that fulfill all given constraints -- are returned as part of the computed models. The purpose of our approach is to dramatically reduce the workload on the query processor. Without the path completion, a usual XML query processor would search the database for solutions to the query. In the paper we describe the transformation in detail and explain how to extract the solution to the original task from the computed models. We understand this paper as a first step, that covers a basic schema/query reaÂsoning task by model-based deduction. Due to the underlying expressive logic formalism we expect our approach to easily adapt to more sophisticated problem settings, like type hierarchies as they evolve within the XML world.
Seit 2005 beschäftige ich mich im Rahmen der Künstlergruppe "Farbraum" mit visuellen Installationen und live Video Performaces auf kulturellen Events. Dafür haben wir einzelne Video-Performance Applikationen entwickelt, die die Probleme einzelner Projekte lösen.Was uns bisher noch nicht gelang ist a) eine modulare Softwarearchitektur zu entwickeln und b) ein Werkzeug zur Entzerrung ebener Flächen, die nicht rechtwinklig projiziert werden, zu erstellen (unter der Annahme, dass Projektoren verwendet werden). Diese Arbeit beschreibt die Lösung des ersten Problems durch die Entwicklung eines modularen Frameworks und des zweiten Problems durch die Implementation eines benutzerfreundlichen Moduls zur Entzerrung von ebenen Flächen. Die Entzerrung findet komplett manuell statt, indem der Benutzer die Koordinaten der Flächeneckpunkte durch das Ziehen der Punkte mit der Maus verändert. Dabei werden die xund y-Werte der Eckpunkte verändert, der z-Wert bleibt konstant. Während auf diese Weise die 3D-Interaktion mittels eines 2D-Eingabegeräts verhindert wird, führt die ausschließlich zweidimensionale Transofrmation der Flächen zu unerwünschten Textur-Mapping Artifakten, die durch das Triangulierungs-basierte Rendern von Grafikkarten entstehen. Um diese Artifakte zu vermeiden, wird ein Verfahren names "adaptive Subdivision" vorgestellt, das die entsandenen Rendering-Fehler korrigiert.
Bruchsimulation
(2014)
Aufgrund ihrer Komplexität wird die Simulation von Brüchen in echtzeitfähigen Anwendungen der Computergraphik häufig gemieden. Durch Methoden aus den Ingenieurswissenschaften können Simulationen geschaffen werden, die Spiele und andere Anwendungen enorm bereichern. Stetig steigende Rechnerleistungen ermöglichen entsprechende Simulationen in Echtzeit und machen diesen Aspekt zunehmend interessanter.
Das Ziel dieser Arbeit ist die Modellierung von Brüchen starrer Körper durch eine Simulation. Der Fokus richtet sich dabei auf die physikalische Plausibilität und Performanz der Anwendung. Durch diese Ausarbeitung soll beantwortet werden, inwiefern eine Simulation von Brüchen mit Mitteln der Computergraphik umgesetzt werden kann.
Es wurden drei bestehende Ansätze und eine eigene Entwicklung implementiert und analysiert. Dieser Arbeit liegen die Verfahren "Real-Time Simulation of Deformation and Fracture of Stiff Materials" von Müller et al., "Real-Time Simulation of Brittle Fracture using Modal Analysis" von Glondu et al. und "Fast and Controllable Simulation of the Shattering of Brittle Objects" von Smith et al. zugrunde. Die vorgestellten Methoden führen voneinander abweichende Bruchbildungen durch. Das eigenständig entwickelte Verfahren baut auf deren Vorzügen auf und erweitert sie mit der Idee der sekundären Risse. Die Implementierung der vier Ansätze erfolgte in der Physik-Engine Bullet.
Die Ergebnisse der Arbeit zeigen, dass physikalisch basierte Brüche in Echtzeit realisierbar sind. Die Untersuchung der physikalischen Methoden auf Performanz zeigte, dass diese vor allem mit der Struktur der Objekte zusammenhängen. Die präsentierten Methoden lieferten für eine Auswahl an Objekten physikalisch plausible Ergebnisse in Echtzeit. Durch die Ausarbeitung wird deutlich, dass die weitere Erforschung der Thematik neue Möglichkeiten aufdecken kann. Die Verbesserung des Realismus in echtzeitfähigen, virtuellen Welten kann mit dem Einsatz von physikalisch plausiblen Methoden erreicht werden.
In dieser Bachelorarbeit wird ein System zur Simulation der Bewegung von Molekülen entworfen. Die Berechnungen der Kräfte zwischen chemisch gebundenen Atomen sowie zwischenmolekularer Kräfte werden fast vollständig auf der GPU durchgeführt. Die Visualisation der Simulation findet in einer interaktiven Bildwiederholrate statt. Um eine Darstellung in Echtzeit auf den meisten handelsüblichen Grafikkarten zur ermöglichen, sind geschickte Optimierungen und leichte Abstraktionen der physikalischen Modelle notwendig. Zu jeder Zeit kann die Ausführungsgeschwindigkeit der Simulation verändert oder vollständig gestoppt werden. Außerdem lassen sich einige Parameter der zugrundeliegenden physikalischen Modelle der Simulation zur Laufzeit verändern. Mit den richtigen Einstellung der Parametern lassen sich bestimmte Phänomene der Molekulardynamik, wie zum Beispiel die räumliche Struktur der Moleküle, beobachten.
Neue Techniken zur automatischen Identifikation von Objekten (Auto-ID) zeigen einzigartige Potentiale für deren Einsatz in der Wirtschaft auf. Diese Arbeit fokussiert sich auf die Radio Frequency Identification- (RFID-) Technologie und untersucht deren Nutzen und Potentiale für ausgewählte Wirtschaftsbranchen. Dabei wird sie unmittelbar mit dem zurzeit in der Wirtschaft vorherrschenden System zur Objektidentifikation, dem Barcode, verglichen. Zu diesem Zweck werden die grundlegenden Funktionsweisen beider Technologien vorgestellt und Unterscheidungsmerkmale hinsichtlich der technischen Ausgestaltung der einzelnen Technologien beleuchtet. Darüber hinaus werden im Hinblick auf die potentielle Verwendung von RFID- und Barcodetechnologie innerhalb dreier Wirtschaftsbranchen die unterschiedlichen Funktionsweisen beider Technologien voneinander abgegrenzt und bewertet. Die Abgrenzung bietet die Grundlage, um die Chancen der RFID-Technologie als potentiellem Nachfolger für die Barcode-Technologie in der Konsumgüterbranche, der Logistikbranche und der Pharmabranche zu ermitteln und zu bewerten.
Die Animation von Modellen ist zu einem wichtigen Teil in den unterschiedlichsten und alltäglichen Bereichen unseres Lebens geworden. Es ist eine anspruchsvolle Aufgabe der Computergrafik eine natürliche Deformation von organischen Modellen zu generieren. Skinning ist eine übliche Methode um Modelle zu animieren ohne die Animation jedes Vertices. Die Oberfläche des Modells wird automatisch durch die Manipulation einzelner Knochen eines Skeletts deformiert.
Diese Bachelorarbeit befasst sich mit dem meist genutzen Algorithmus,dem Linear Blend Skinning Algorithmus, der bezüglich des visuellen Eindrucks und der Performanz optimiert werden soll. Zusätzlich werden Instancing Methoden vorgestellt und in der Anwendung mit Skinning Methoden kombiniert um deren Vor- und Nachteile aufzuzeigen.
Fungicide effects on the structure and functioning of leaf-associated aquatic fungal communities
(2022)
Aquatic hyphomycetes are a polyphyletic group of saprotrophic fungi growing abundantly on submerged leaf litter. In stream ecosystems shaped by allochthonous leaf litter inputs, they play a central functional role as decomposers and food source for other organisms. Fungicides pose a threat to aquatic hyphomycetes and their functions, since these substances are inherently toxic to fungi and contaminate surface waters around the world due to their widespread use in agricultural and urban landscapes. While fungicides’ potential to reduce fungal diversity are discerned, the extent of impacts on biodiversity-ecosystem functioning relationships (B EF) remains unclear. This is partly attributed to methodological constraints in the detection and quantification of single aquatic hyphomycete species within microbial leaf-associated communities. The primary aim of this thesis was, therefore, (1) to assess the ecotoxicological impacts of fungicides on B-EF relationships in aquatic hyphomycete communities. To facilitate this, subordinate aims were to (2) develop DNA-based biomolecular tools (i.e., qPCR assays) to detect and to quantify the biomass of different aquatic hyphomycete species in mixed cultures and (3) to investigate the mechanisms underlying B-EF relationships in the absence of chemical stressors.
In the course of this thesis, qPCR assays were developed for detection and species-specific biomass quantification of ten common aquatic hyphomycete species and successfully validated for application in eco( toxico )logical microcosm experiments. Via a systematic manipulation of fungal diversity, these assays allow the examination of B-EF relationships by assessments of deviations between observed and (monoculture-based) predicted activities in fungal mixed cultures. Taking advantage of these tools in a microcosm experiment, it was uncovered that leaf decomposition results from the additive activity of community members, even though functionally distinct species were present. Colonization dynamics are characterized by complex interactions. Colonization success of aquatic hyphomycetes is higher if co-occurring species are genetically and functionally distinct (i.e., complementary interactions). However, the co-occurrence of aquatic hyphomycete species does not necessarily result in a greater colonization success compared to monocultures, unless bacteria are present. Accordingly, the presence of other microbial groups such as bacteria may induce new fungal diversity-based feedback loops, which ultimately enable coexistence of aquatic hyphomycete species in the environment. Exposure to fungicides revealed substantial differences in sensitivities among aquatic hyphomycetes. The most productive species were able to cope with extremely high fungicide concentrations up to the mg/L-range. In assemblages containing these species, leaf decomposition was maintained under fungicide exposure. Yet, already at environmentally relevant fungicide concentrations, tolerant species displaced more sensitive ones, potentially affecting leaves’ nutritional quality for consumers. This thesis thus indicates that fungicide exposure poses a risk to stream food webs rather than the microbial leaf decomposition process per se.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt,
wie im Bereich der Computergraphik. Dabei bietet die GPU, neben
der reinen Darstellung von Dreiecken, inzwischen auch eine Reihe weiterer
Pipeline-Schritte, die auch die Darstellung von anderen graphischen
Objekten, wie zum Beispiel den Freiformflächen, ermöglicht.
Diese Arbeit beschäftigt sich mit dem Rendering von Freiformflächen,
insbesondere dem der Bézierflächen. Dafür wurde für das Rendering Framework
der Universität Koblenz (CVK) eine entsprechende Implementierung
zur Verwaltung und Darstellung von Bézierflächen erstellt. Dazu wurde
zunächst die Triangulation und schließlich die Tessellierung der Bézierflächen
mit Normalen und Texturkoordinaten, sowie die Behandlung von
Trimmkurven erstellt.
Die Arbeit geht von der grundlegenden Annahme aus, dass spezifische kulturelle Bedingungen psychopathologische Effekte haben können, die interpersonale Gewalt begünstigen. Ziel der Studie war die Klärung der Frage, ob die Häufigkeit von Tötungsdelikten (abhängige Variable) mit bestimmten Einstellungen, Überzeugungen, Werthaltungen und Ausprägungen auf kulturellen Merkmalsdimensionen zusammenhängt. Um diese Frage zu klären, wurden unabhängige Variablen ausgewählt, von denen sechs sich auf die Wichtigkeit von Religion (Religiosität), Kontroll- und Machtorientierung (Omnipotenz), die kategorische Unterscheidung von Gut und Böse (Absolutismus), Nationalstolz (Nationalismus), Akzeptanz von Wettbewerb (Wettbewerbsorientierung) und Befürwortung von Autorität und Strafe (Autoritarismus) beziehen. Die zur Messung dieser Variablen relevanten Daten wurden dem World Values Survey entnommen. Für zwei weitere Kulturdimensionen, Kollektivismus und Machtdistanz, wurden die Ergebnisse der Studien von Hofstede verwendet. Als neunte unabhängige Variable diente das Bruttonationaleinkommen. Mittels multipler Imputation wurden die 7% fehlender Messwerte durch Schätzwerte ergänzt, so dass die Daten von 82 Staaten für die Analysen zur Verfügung standen.rnErgebnisse: Eine schrittweise multiple Regression ergab für Omnipotenz (β = .44, P < .01) und Bruttonationaleinkommen (ß = -.27, P < .01) die stärksten Regressionseffekte auf die Tötungsrate als abhängige Variable. Die neun unabhängigen Variablen luden auf zwei Faktoren, soziökonomischer Entwicklungsstand (SED) und psychokultureller Faktor (Psy-Cul), die negativ korreliert waren (-.47). Psy-Cul wurde als Indikator für Narzismus und als Mediator des Effekts von SED auf Tötungsrate interpretiert. Hierarchische Clusteranalysen auf der Basis der beiden Faktoren ergaben eine klare Unterscheidung zwischen drei Gruppen von Nationen: westliche Nationen, Entwicklungsnationen und postkommunistische Nationen.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
In den vergangenen Jahrzehnten haben sich Einzelpartikelanalyse (EPA) und Kryotransmissionselektronenmikroskopie(Kryo-EM) zu einer der führenden Technologien für die strukturelle Analyse von biologischen Makromolekülen entwickelt. Dies erlaubt die Untersuchung biologischer Strukturen in einem möglichst naturgetreuen Zustand auf molekularer Ebene. In den letzten fünf Jahren überwand die EPA erstmals die Auflösungsgrenze von 2°A und erreichte somit atomare Auflösung, was bislang nur mittels Röntgenkristallographie möglich war. Ein bestehendes Problem der Kryo-EM ist der schwache Bildkontrast. Seit der Einführung der Kryo-EM in den 1980er Jahren, wurde an Phasenplatten als mögliches Werkzeug, zur Verbesserung des Bildkontrasts geforscht. Hier limitierten immer technische Probleme bei der Herstellung oder geräteseitige Limitierungen, wie z.B. Hysterese der Linsen, den erfolgreichen Einsatz solcher Phasenplatten. Insbesondere ein automatisierter Arbeitsablauf für die Steuerung des Mikroskops und die Aufnahme der Bilder ließ sich nie realisieren. In dieser Doktorarbeit wurde eine neue Zernike-Phasenplatte entwickelt und untersucht. Freistehende Metallfilme dienten als Phasenplattenmaterial, um Alterungsund Kontaminationsprobleme der bislang üblichen kohlenstoffbasierten Phasenplatten zu überwinden. In ersten Experimenten zur Materialwahl wurde Iridium als geeignetes Metall identifiziert. Der zweite Teil der Arbeit behandelt die Untersuchung der Iridium-Phasenplatten hinsichtlich ihrer Eigenschaften und ihrem Verhalten im Elektronenmikroskop. Ein Resultat dieser Experimente ist der sogenannte rocking-Modus, bei dem die Phasenplatte während der Aufnahme bewegt wird und wodurch sich Streuungs- und andere Artefakte, die bei den Zernike-Phasenplatten üblicherweise auftreten, verhindern oder deutlich reduzieren ließen. Die Entwicklung eines angepassten Workflow ermöglichte die Aufnahme von EPADatens ätzen mit Phasenplatte über mehrere Tage. Für die Evaluierung der Phasenplattendaten wurden Datensätze von Apoferritin mit und ohne Phasenplatte aufgenommen und miteinander verglichen.