Filtern
Erscheinungsjahr
- 2019 (45) (entfernen)
Dokumenttyp
- Masterarbeit (20)
- Dissertation (15)
- Bachelorarbeit (8)
- Habilitation (1)
- Ausgabe (Heft) zu einer Zeitschrift (1)
Sprache
- Englisch (45) (entfernen)
Schlagworte
Institut
- Institut für Management (8)
- Institut für Wirtschafts- und Verwaltungsinformatik (8)
- Institut für Computervisualistik (7)
- Institute for Web Science and Technologies (7)
- Fachbereich 7 (4)
- Fachbereich 8 (2)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (2)
- Institut für Softwaretechnik (2)
- Institut für Umweltwissenschaften (2)
- Fachbereich 4 (1)
Sediment transport contributes to the movement of inorganic and organic material in rivers. The construction of a dam interrupts the continuity of this sediment transport through rivers, causing sediments to accumulate within the reservoir. Reservoirs can also act as carbon sinks and methane can be released when organic matter in the sediment is degraded under anoxic conditions. Reservoir sedimentation poses a great threat to the sustainability of reservoirs worldwide, and can emit the potent greenhouse gas methane into the atmosphere. Sediment management measures to rehabilitate silted reservoirs are required to achieve both better water quantity and quality, as well as to mitigate greenhouse gas emissions.
This thesis aims at the improvement of sediment sampling techniques to characterize sediment deposits as a basis for accurate and efficient water jet dredging and to monitor the dredging efficiency by measuring the sediment concentration. To achieve this, we investigated freeze coring as a method to sample (gas-bearing) sediment in situ. The freeze cores from three reservoirs obtained were scanned using a non-destructive X-Ray CT scan technique. This allows the determination of sediment stratification and character-ization of gas bubbles to quantify methane emissions and serve as a basis for the identi-fication of specific (i.e. contaminated) sediment layers to be dredged. The results demon-strate the capability of freeze coring as a method for the characterization of (gas-bearing) sediment and overcomes certain limitations of commonly used gravity cores. Even though the core’s structure showed coring disturbances related to the freezing process, the general core integrity seems to not have been disturbed. For dredging purposes, we analyzed the impact pressure distribution and spray pattern of submerged cavitating wa-ter jets and determined the effects of impinging distances and angles, pump pressures and spray angles. We used an adapted Pressure Measurement Sensing technique to enhance the spatial distribution, which proved to be a comparatively easy-to-use meas-urement method for an improved understanding of the governing factors on the erosional capacity of cavitating water jets. Based on this data, the multiple linear regression model can be used to predict the impact pressure distribution of those water jets to achieve higher dredging accuracy and efficiency. To determine the dredging operational efficien-cy, we developed a semi-continuous automated measurement device to measure the sediment concentration of the slurry. This simple and robust device has lower costs, compared to traditional and surrogate sediment concentration measurement technolo-gies, and can be monitored and controlled remotely under a wide range of concentrations and grain-sizes, unaffected by entrained gas bubbles
Commonsense reasoning can be seen as a process of identifying dependencies amongst events and actions. Understanding the circumstances surrounding these events requires background knowledge with sufficient breadth to cover a wide variety of domains. In the recent decades, there has been a lot of work in extracting commonsense knowledge, a number of these projects provide their collected data as semantic networks such as ConceptNet and CausalNet. In this thesis, we attempt to undertake the Choice Of Plausible Alternatives (COPA) challenge, a problem set with 1000 questions written in multiple-choice format with a premise and two alternative choices for each question. Our approach differs from previous work by using shortest paths between concepts in a causal graph with the edge weight as causality metric. We use CausalNet as primary network and implement a few design choices to explore the strengths and drawbacks of this approach, and propose an extension using ConceptNet by leveraging its commonsense knowledge base.
While the existing literature on cooperative R&D projects between firms and public research institutes (PRI) has made valuable contributions by examining various factors and their influence on different outcome measures, there has been no investigation of cooperative R&D project success between firms and PRI from a product competitive advantage perspective. However, insights into the development of a meaningful and superior product (i.e., product competitive advantage) are particularly important in the context of cooperative R&D projects between PRI and (mainly small and medium-sized) firms in the biotechnology industry in response to increasing competition to raise capital funds necessary for survival.
The objectives of this thesis are: (1) to elaborate the theoretical foundations which explain the achievement of a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI, (2) to identify and empirically evaluate the determining factors for achieving a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI, and (3) to show how cooperative R&D projects between biotechnology firms and PRI should be designed and executed to support the achievement of a product competitive advantage.
To accomplish these objectives, a model of determinants of product competitive advantage in cooperative R&D projects between biotechnology firms and PRI is developed by drawing from the theoretical foundations of resource-based theory and information-processing theory. The model is evaluated using data from 517 questionnaires on cooperative R&D projects between at least one biotechnology firm and one PRI. The data are analyzed using variance-based structural equation modeling (i.e., PLS-SEM) in order to conduct hypotheses testing. The evaluation of the empirical data includes an additional mediation analysis and the comparison of effects in subsamples.
The results demonstrate the importance of available resources and skills, as well as the proficient execution of marketing-related and technical activities for the achievement of a product competitive advantage in cooperative R&D projects between biotechnology firms and PRI. By identifying project-related and process-related factors affecting product competitive advantage and empirically testing their relationships, the research findings should be valuable for both researchers and practitioners. After discussing contributions and implications for research and practice, the present thesis concludes with limitations and avenues for future research.
Eine genaue Schneesimulation ist der Schlüssel zur Erfassung der charakteristischen Visualisierung von Schnee. Aufwendige Methoden existieren, die versuchen Schneeverhalten ganzheitlich zu ergreifen. Die Rechenkomplexität dieser Ansätze hindert sie daran, Echtzeitfähigkeit zu erreichen. Diese Arbeit stellt drei Methoden vor, die unter Verwendung der GPU eine echtzeitfähige Deformation einer Schneeoberoberfläche darstellen. Die Ansätze werden hinsichtlich ihrer wahrheitsgetreuen Schneedarstellung untersucht und nach ihrer Fähigkeit, mit einer zunehmenden Anzahl von schneeverformenden Objekten zu skalieren. Die Ergebnisse zeigen, dass die Methoden bei mehreren hunderten schneeverformenden Objekten ihre Echtzeitfähigkeit beibehalten. Jedoch benachteiligen die charakteristischen Einschränkungen jener Methoden die visuellen Resultate. Ein experimenteller Ansatz ist es, die Anzahl der schneeverformenden Objekte zu reduzieren und durch Zusammenfügen der Methoden ein genaueres, kombiniertes Verformungsmuster zu erzeugen.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
The development of a game engine is considered a non-trivial problem. [3] The architecture of such simulation software must be able to manage large amounts of simulation objects in real-time while dealing with “crosscutting concerns” [3,p. 36] between subsystems. The use of object oriented paradigms to model simulation objects in class hierarchies has been reported as incompatible with constantly changing demands during game development [2, p. 9], resulting in anti-patterns and eventual, messy refactoring.[13]
Alternative architectures using data oriented paradigms revolving around object composition and aggregation have been proposed as a result. [13, 9, 1, 11]
This thesis describes the development of such an architecture with the explicit goals to be simple, inherently compatible with data oriented design, and to make reasoning about performance characteristics possible. Concepts are formally defined to help analyze the problem and evaluate results. A functional implementation of the architecture is presented together with use cases common to simulation software.
Ökologische Bewertungsansätze auf der Grundlage des Makrozoobenthos in Euphratzuflüssen der Türkei
(2019)
Nachhaltiges Gewässermanagement erfordert Methoden zur Bewertung der ökologischen Gewässerqualität. Die Basis dafür zu entwickeln setzt langjährige limnologische Forschung voraus, die jedoch in der Türkei bisher nicht ausreichend vorhanden ist. Daher war es das Ziel dieser Doktorarbeit, Grundlagenforschung im Bereich der Gewässerökologie durchzuführen und Methoden zur Bewertung der ökologischen Gewässerqualität in der Türkei anhand der Untersuchung von benthischen Invertebraten bereitzustellen. Hierfür habe ich 17 Nebenflüsse des Euphrat mit ähnlicher Typologie/Gewässerordnung ausgewählt, die unter¬schiedlichen anthropogenen Belastungen bis gar keiner Beeinträchtigung ausgesetzt waren. Die Charakterisierung der natürlichen Bergbäche war der erste wichtige Schritt zur Analyse der ökologischen Qualität. Anhand von Gemeinschaftsindizes konnte ich feststellen, dass die hierfür ausgewählten fünf Bäche einen sehr guten ökologischen Zustand aufwiesen. Des Weiteren verglich ich die verschiedenen biologischen Indizes zwischen Frühling (Mai) und Herbst (September), um den optimalen Zeitpunkt der Beprobung festzustellen. Dabei zeigten sich erhebliche Unterschiede in der Makroinvertebratenzusammensetzung zwischen den beiden Jahreszeiten: Die Anzahl der Taxa und der Shannon-Index waren im Herbst deutlich höher als im Frühjahr. Anschließend untersuchte ich bei den Referenzbächen die Nahrungsressourcen des Makrozoobenthos mittels einer Isotopen-Analyse. Als wichtigste Basalressourcen für die benthischen Wirbellosen stellte ich FPOM und Biofilm fest. Infolgedessen unterteilte ich die 17 Bäche anhand der Ähnlichkeit ihrer Gemeinschafts-struktur in drei Qualitätsklassen, die von vier Gemeinschaftsindizes (EPT [%], EPTCBO [%], Anzahl der Individuen, Evenness) unterstützt worden sind. Hierbei wurden 23 Taxa als Indikatoren für die drei Qualitätsklassen identifiziert. Im nächsten Schritt habe ich zwei Möglichkeiten für die Bewertung der Qualitätsklassen entwickelt bzw. angepasst. Als erstes adaptierte ich den biotischen Index Hindu Kush-Himalaya an das Einzugsgebiet des Euphrat, in dem ich eine neue und ökoregionspezifische Score Liste (Euph-Scores) für 93 Taxa erstellt habe. Die gewichteten ASPT-Werte, die in der vorliegenden Arbeit in Euphrat Biotischer Score (EUPHbios) umbenannt worden sind, zeigten im Vergleich zu den anderen ASPT-Werten schärfere Differenzierungen der Qualitätsklassen. Somit erwies sich dieser modifizierte Index in der praktischen Anwendung als sehr aussagekräftig und gut umsetzbar. Als zweiten biologischen Index habe ich den Anteil der Habitat-Spezialisten vorgeschlagen. Um diesen Index zu berechnen, wurden Habitatpräferenzen der 20 häufigsten Makro-invertebraten anhand des neuen Habitat-Scores identifiziert. Der Anteil der Habitat-Spezialisten unterschied sich deutlich zwischen den drei Qualitätsklassen, mit höheren Werten in natürlichen Bächen als in belasteten. Die in dieser Doktorarbeit vorgestellten Methoden und Ergebnisse können in einem multimetrischen Index für ein türkisches Bewertungsprogramm für Fließgewässer verwendet werden.
Engineering criminal agents
(2019)
Die Dissertation mit dem Titel "Engineering Criminal Agents" demonstriert das Zusammenspiel von drei verschiedenen Forschungsbereichen, die bereits im Titel genannt sind: Im Mittelpunkt stehen Engineering (d.h. ingenieurmäßiges Vorgehen bei der Erstellung von Systemen) und Simulation, während beide Bereiche im Kontext des Anwendungsfeldes Kriminologie (und auch den damit verbundenen sozialwissenschaftlichen Aspekten) angewandt werden. Konkreter gesagt, Ziel der Arbeit ist es, zu zeigen, wie spezifische Arten von agentenbasierten Simulationsmodellen unter Berücksichtigung und Anwendung von Methoden der Softwareentwicklung erstellt werden können.
Agentenbasierte Simulation hat sich seit Jahrzehnten als nützliche Methode der Sozialwissenschaften bewährt, und ein Trend zu komplexen Simulationsmodellen ist wahrnehmbar, nicht zuletzt aufgrund der Fortschritte in Datenverarbeitungs- und Simulationstechniken. Eine bedeutende Ursache für Modellkomplexität ist die Einbeziehung von 'Belegmaterialien' als Grundlage von Simulationsmodellen. Solche Belegmaterialien können durch mehrere Stakeholder bereitgestellt werden und dabei deren unterschiedliche Sichtweisen auf einen Modellierungsgegenstand widerspiegeln.
Dabei ergeben sich spezifische Problemstellungen für das Zusammenspiel der beiden hier relevanten Perspektiven auf das Thema Simulation: auf der einen Seite der Benutzer des Simulationsmodells, der die Anforderungen liefert und an den Simulationsergebnissen interessiert ist; auf der anderen Seite der Modellentwickler, der ein verifiziertes und validiertes formales Modell programmieren muss. Um diese beiden Perspektiven systematisch zusammenzubringen, ist substantieller Aufwand in Forschung und Entwicklung erforderlich, wo die vorliegende Dissertation einen Beitrag zu leisten beabsichtigt.
Die in dieser Arbeit erzielten praktischen Ergebnisse - in Form von Software - wurden durch eine bereichsübergreifende Herangehensweise erreicht: Durch die Verwendung von Methoden der Softwareentwicklung konnten Methoden der computergestützten Sozialwissenschaften benutzt werden, um am Ende Einblicke in soziale Systeme - wie die internen Dynamiken von kriminellen Netzwerken - zu ermöglichen.
Die vorliegende Dissertation zeigt die Forschungstätigkeiten, die für die Erzielung der Ergebnisse herangezogen wurden, sowie liefert Details und Spezifikationen zur erstellten Software.
Rahmen für diese Forschungs- und Entwicklungstätigkeiten waren in erster Linie zwei Forschungsprojekte: OCOPOMO und GLODERS.
Die vorliegende Dissertation beschäftigt sich mit den Chancen und Restriktionen, denen Parteien im Wahlkampf auf supranationaler Ebene der EU begegnen. Mittels kommunikationswissenschaftlicher Konzepte des Agenda-Settings (Fokus: Medien) und Agenda-Buildings (Fokus: Parteien) wird anhand des Wahlkampfs zur Wahl des Europäischen Parlaments (EP) 2014 erstens analysiert, inwieweit nationale politische Parteien die EU als Thema auf ihre Agenda setzen und ob etablierte Parteien so zu einer Normalisierung des EU-Wahlkampfs beitragen können. Zweitens wird untersucht, ob Parteien einen strukturellen Vorteil haben, die mediale Agenda auch auf supranationaler Ebene im Wahlkampf beeinflussen zu können, also mit EU-fokussierter Wahlkampfkommunikation in den Medien punkten können. Drittens wird geprüft, ob sich Parteien durch die Ablehnung der EU-Integration und der damit verbundenen, konflikthaften Kommunikation einen Vorteil für die Sichtbarkeit ihrer Kampagnen verschaffen können. Viertens und abschließend wird erforscht, ob Agenda-Building die Rangfolge spezifischer politischer Themenfelder auf der medialen Agenda im europäischen Kontext beeinflussen kann.
Die Analysen zeigen erstens, dass ein europapolitischer Fokus der Wahlkampfkommunikation nicht mehr nur auf Seiten der kleinen (euroskeptischen) Parteien zu finden ist. Verfolgen die Parteien einen europapolitischen Fokus in ihrer Wahlkampfkommunikation, haben sie zweitens gute Chancen, in der Medienberichterstattung präsent zu sein. Drittens stellt sich ein negativer Tenor der Parteienkommunikation nicht als ausschlaggebend für die Sichtbarkeit der Parteien im Wahlkampf heraus. Eine klare Positionierung auf politischen Sachfragen bereitet Parteien viertens auch auf die Restriktionen der weiteren Ausbildung einer europäischen Themenagenda vor, da die Verschiebung in der Wichtigkeit von Themen zuerst von den Medien erfasst wird, die Kampagnenkommunikation folgt erst darauf. Die Arbeit schließt nach einer Diskussion dieser Ergebnisse mit einer Einschätzung der Analyselimitationen und einem Ausblick auf weitere Forschungsansätze.
Most social media platforms allow users to freely express their opinions, feelings, and beliefs. However, in recent years the growing propagation of hate speech, offensive language, racism and sexism on the social media outlets have drawn attention from individuals, companies, and researchers. Today, sexism both online and offline with different forms, including blatant, covert, and subtle lan- guage, is a common phenomenon in society. A notable amount of work has been done over identifying sexist content and computationally detecting sexism which exists online. Although previous efforts have mostly used peoples’ activities on social media platforms such as Twitter as a public and helpful source for collecting data, they neglect the fact that the method of gathering sexist tweets could be biased towards the initial search terms. Moreover, some forms of sexism could be missed since some tweets which contain offensive language could be misclassified as hate speech. Further, in existing hate speech corpora, sexist tweets mostly express hostile sexism, and to some degree, the other forms of sexism which also appear online was disregarded. Besides, the creation of labeled datasets with manual exertion, relying on users to report offensive comments with a tremendous effort by human annotators is not only a costly and time-consuming process, but it also raises the risk of involving discrimination under biased judgment.
This thesis generates a novel sexist and non-sexist dataset which is constructed via "UnSexistifyIt", an online web-based game that incentivizes the players to make minimal modifications to a sexist statement with the goal of turning it into a non-sexist statement and convincing other players that the modified statement is non-sexist. The game applies the methodology of "Game With A Purpose" to generate data as a side-effect of playing the game and also employs the gamification and crowdsourcing techniques to enhance non-game contexts. When voluntary participants play the game, they help to produce non-sexist statements which can reduce the cost of generating new corpus. This work explores how diverse individual beliefs concerning sexism are. Further, the result of this work highlights the impact of various linguistic features and content attributes regarding sexist language detection. Finally, this thesis could help to expand our understanding regarding the syntactic and semantic structure of sexist and non-sexist content and also provides insights to build a probabilistic classifier for single sentences into sexist or non-sexist classes and lastly find a potential ground truth for such a classifier.