Filtern
Erscheinungsjahr
- 2019 (125) (entfernen)
Dokumenttyp
- Bachelorarbeit (41)
- Masterarbeit (37)
- Dissertation (31)
- Ausgabe (Heft) zu einer Zeitschrift (9)
- Bericht (3)
- Sonstiges (2)
- Buch (Monographie) (1)
- Habilitation (1)
Schlagworte
- Vorlesungsverzeichnis (3)
- Datenschutz (2)
- Immersion (2)
- Inklusion (2)
- Internet of Things (2)
- Parteienkommunikation (2)
- Weinbau (2)
- 2019 European Parliament Election (1)
- 3D-Scan (1)
- AR (1)
Institut
- Institut für Computervisualistik (38)
- Institut für Management (15)
- Institut für Wirtschafts- und Verwaltungsinformatik (12)
- Institute for Web Science and Technologies (7)
- Zentrale Einrichtungen (7)
- Fachbereich 7 (5)
- Institut für Softwaretechnik (5)
- Fachbereich 4 (3)
- Fachbereich 8 (3)
- Institut für Grundschulpädagogik (3)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (2)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (2)
- Institut für Kulturwissenschaft (2)
- Institut für Kunstwissenschaft (2)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (2)
- Institut für Umweltwissenschaften (2)
- Fachbereich 5 (1)
- Institut für Evangelische Theologie (1)
- Institut für Germanistik (1)
- Institut für Informatik (1)
- Institut für Integrierte Naturwissenschaften (1)
- Institut für Integrierte Naturwissenschaften, Abt. Geographie (1)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (1)
- Institut für Psychologie (1)
- Institut für Pädagogik, Abteilung Pädagogik (1)
- Institut für Sozialwissenschaften (1)
- Institut für Sportwissenschaft (1)
- Institut für naturwissenschaftliche Bildung (1)
- Mathematisches Institut (1)
Over the past few decades society’s dependence on software systems has grown significantly. These systems are utilized in nearly every matter of life today and often handle sensitive, private data. This situation has turned software security analysis into an essential and widely researched topic in the field of computer science. Researchers in this field tend to make the assumption that the quality of the software systems' code directly affects the possibility for security gaps to arise in it. Because this assumption is based on properties of the code, proving it true would mean that security assessments can be performed on software, even before a certain version of it is released. A study based on this implication has already attempted to mathematically assess the existence of such a correlation, studying it based on quality and security metric calculations. The present study builds upon that study in finding an automatic method for choosing well-fitted software projects as a sample for this correlation analysis and extends the variety of projects considered for the it. In this thesis, the automatic generation of graphical representations both for the correlations between the metrics as well as for their evolution is also introduced. With these improvements, this thesis verifies the results of the previous study with a different and broader project input. It also focuses on analyzing the correlations between the quality and security metrics to real-world vulnerability data metrics. The data is extracted and evaluated from dedicated software vulnerability information sources and serves to represent the existence of proven security weaknesses in the studied software. The study discusses some of the difficulties that arise when trying to gather such information and link it to the difference in the information contained in the repositories of the studied projects. This thesis confirms the significant influence that quality metrics have on each other. It also shows that it is important to view them together as a whole and suppose that their correlation could influence the appearance of unwanted vulnerabilities as well. One of the important conclusions I can draw from this thesis is that the visualization of metric evolution graphs, helps the understanding of the values as well as their connection to each other in a more meaningful way. It allows for better grasp of their influence on each other as opposed to only studying their correlation values. This study confirms that studying metric correlations and evolution trends can help developers improve their projects and prevent them from becoming difficult to extend and maintain, increasing the potential for good quality as well as more secure software code.
Eine genaue Schneesimulation ist der Schlüssel zur Erfassung der charakteristischen Visualisierung von Schnee. Aufwendige Methoden existieren, die versuchen Schneeverhalten ganzheitlich zu ergreifen. Die Rechenkomplexität dieser Ansätze hindert sie daran, Echtzeitfähigkeit zu erreichen. Diese Arbeit stellt drei Methoden vor, die unter Verwendung der GPU eine echtzeitfähige Deformation einer Schneeoberoberfläche darstellen. Die Ansätze werden hinsichtlich ihrer wahrheitsgetreuen Schneedarstellung untersucht und nach ihrer Fähigkeit, mit einer zunehmenden Anzahl von schneeverformenden Objekten zu skalieren. Die Ergebnisse zeigen, dass die Methoden bei mehreren hunderten schneeverformenden Objekten ihre Echtzeitfähigkeit beibehalten. Jedoch benachteiligen die charakteristischen Einschränkungen jener Methoden die visuellen Resultate. Ein experimenteller Ansatz ist es, die Anzahl der schneeverformenden Objekte zu reduzieren und durch Zusammenfügen der Methoden ein genaueres, kombiniertes Verformungsmuster zu erzeugen.
In der vorliegenden Studie geht es um den möglichen und tatsächlichen Beitrag von sogenannten Geschäftsmodellen im Kontext eines reflexiven Bildungsmanagements im Feld der wissenschaftlichen Weiterbildung an (öffentlichen) Hochschulen in Deutschland.
Im Anschluss an Behrmann (2006) wird ein reflexives Bildungsmanagement verwendet, um mögliche strategische und entwicklungsrelevante Orientierungen für die strategische (Neu-)Positionierung von Weiterbildungseinrichtungen bzw. reflexive Entwicklung von Hochschulen im Handlungs- bzw. Geschäftsfeld der wissenschaftlichen Weiterbildung zu strukturieren. In diesem Zusammenhang unterstützen Geschäftsmodelle die Realisierung des (Weiter-)Bildungsauftrags von (öffentlichen) Hochschulen bzw. von deren Weiterbildungseinrichtungen. Diese möglichen Orientierungen wurden im Rahmen von qualitativen Inhaltsanalysen nach Kuckartz (2016) auf der Grundlage von visualisierten Gruppendiskussionen nach Kühl (2009) rekonstruiert. Der Feldzugang erfolgte mit Unterstützung der Deutschen Gesellschaft für wissenschaftliche Weiterbildung und Fernstudium e.V. (DGWF).
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Our work finds the fine grained edits in context of neighbouring tokens in Wikipedia articles. We cluster those edits according to similar neighbouring context. We encode neighbouring context into vector space using word vectors. We evaluate clusters returned by our algorithm on extrinsic and intrinsic metric and compare it with previous work. We analyse the relation between extrinsic and intrinsic measurements of fine grained edit tokens.
Most social media platforms allow users to freely express their opinions, feelings, and beliefs. However, in recent years the growing propagation of hate speech, offensive language, racism and sexism on the social media outlets have drawn attention from individuals, companies, and researchers. Today, sexism both online and offline with different forms, including blatant, covert, and subtle lan- guage, is a common phenomenon in society. A notable amount of work has been done over identifying sexist content and computationally detecting sexism which exists online. Although previous efforts have mostly used peoples’ activities on social media platforms such as Twitter as a public and helpful source for collecting data, they neglect the fact that the method of gathering sexist tweets could be biased towards the initial search terms. Moreover, some forms of sexism could be missed since some tweets which contain offensive language could be misclassified as hate speech. Further, in existing hate speech corpora, sexist tweets mostly express hostile sexism, and to some degree, the other forms of sexism which also appear online was disregarded. Besides, the creation of labeled datasets with manual exertion, relying on users to report offensive comments with a tremendous effort by human annotators is not only a costly and time-consuming process, but it also raises the risk of involving discrimination under biased judgment.
This thesis generates a novel sexist and non-sexist dataset which is constructed via "UnSexistifyIt", an online web-based game that incentivizes the players to make minimal modifications to a sexist statement with the goal of turning it into a non-sexist statement and convincing other players that the modified statement is non-sexist. The game applies the methodology of "Game With A Purpose" to generate data as a side-effect of playing the game and also employs the gamification and crowdsourcing techniques to enhance non-game contexts. When voluntary participants play the game, they help to produce non-sexist statements which can reduce the cost of generating new corpus. This work explores how diverse individual beliefs concerning sexism are. Further, the result of this work highlights the impact of various linguistic features and content attributes regarding sexist language detection. Finally, this thesis could help to expand our understanding regarding the syntactic and semantic structure of sexist and non-sexist content and also provides insights to build a probabilistic classifier for single sentences into sexist or non-sexist classes and lastly find a potential ground truth for such a classifier.
Der vorliegenden Arbeit liegt die Frage zugrunde in wie weit die zunehmende Digitalisierung die Work-Life Balance beeinflusst, was auch gleichzeitig das Ziel dieser Arbeit beschreibt.
Dazu wird eine Literaturrecherche durchgeführt, in der eine direkte Korrelation vom subjektiven Work-Life Balance Empfinden mit dem empfundenen Stresslevel hergestellt wird. Mit Hilfe von Antonovskys Salutogenetischen Modell (1997) aus dem Bereich der Stressforschung werden Faktoren ermittelt, welche das individuelle Stressempfinden - und somit die empfundene Work-Life Balance - beeinflussen. Es wird ein Interviewleitfaden für ein problemzentriertes Interview nach Witzel (1985) erstellt, welches als Hauptuntersuchungsgrundlage die Beeinflussung der ermittelten Faktoren durch die Digitalisierung beinhaltet, welche anhand einer qualitativen Inhaltsanalyse nach Mayring (2014) ausgewertet werden.
Demnach hat die Digitalisierung Einfluss auf jeden dieser ermittelten Faktoren und damit zusammenhängend auf die Work-Life Balance. Dies zeigt, dass uns die Digitalisierung in fast allen Bereichen unseres beruflichen oder privaten Lebens beeinflusst. Ob dieser Einfluss positiv oder negativ ist, hängt von dem Individuum ab, welches diesen Faktor bewertet. Es konnten klare Unterscheidungen zwischen Personen festgestellt werden, die in einem IT-Beruf arbeiten und solche die dies nicht tun. Auf die Personen im IT-Beruf hatte die Digitalisierung einen deutlich besseren Einfluss auf die Work-Life Balance als auf solche, die nicht in solch einem Beruf arbeiten.
Kleine Bäche umfassen den größten Teil der Fließstrecke und des Einzugsgebiets in Gewässernetzen. Sie sind eng mit ihrem Einzugsgebiet verbunden und reagieren empfindlich auf Änderungen des Wasserhaushalts und der Landnutzung. Trotz ihrer geringen wirtschaftlichen Bedeutung sind diese Bäche entscheidend für den ökologischen und chemischen Zustand größerer Gewässer. Obwohl zahlreiche Studien die Auswirkungen anthropogener Stressoren oder Umweltveränderungen untersuchen, mangelt es am Verständnis der natürlichen Bedingungen und Prozesse, welche jedoch die Reaktion eines Baches auf anthropogene oder klimatische Veränderungen entscheidend beeinflussen. Eine der größten Bedrohungen für aquatische Ökosysteme ist der übermäßige anthropogene Eintrag von Nährstoffen. Nährstoffe steuern Nahrungsnetze in erster Linie über die Primärproduzenten und ihre Konsumenten, in kleinen Bächen Periphyton und Grazer. Die Periphyton-Grazer-Interaktion ist der Hauptpfad der autochthonen Produktion in das Nahrungsnetz, und die Stärke dieser Interaktion bestimmt weitgehend die ökologischen Auswirkungen von Nährstoff-einträgen. Daher zielt diese Arbeit darauf ab, wichtige biologische Prozesse der Periphyton-Grazer-Interaktionen zu beleuchten. Ich untersuchte verschiedene Aspekte der Periphyton-Grazer-Interaktionen anhand von Laborexperimenten mit Fokus auf methodischen Fragen und einer Feldstudie, in der ich die benthischen Gemeinschaften drei morphologisch ähnlicher, Phosphor limitierter, natürlicher kleiner Bächen verglich. Mit dem Laborexperiment zur Periphyton-Wachstumsrate konnte ich zeigen, dass das RNA/DNA-Verhältnis von Periphyton als Proxy für dessen Wachstumsrate in kontrollierten Experimenten verwendet und somit dieser wichtigen Prozesses in ökotoxikologische oder ökologische Experimente einbezogen werden kann. Des Weiteren konnte ich zeigen, dass die Fettsäurezusammensetzung von Eintagsfliegen-larven auf Veränderungen der in der Nahrung enthaltenen Fettsäuren innerhalb von zwei Wochen reagiert. Diese schnelle Anpassung der Fettsäurezusammensetzung der Konsumenten zeigt, dass selbst kurzfristige Änderungen der verfügbaren Primärproduzenten wichtige Auswirkungen auf die Versorgung höherer trophischer Ebenen mit physiologisch wichtigen mehrfach ungesättigten Fettsäuren haben. Mit den Ergebnissen der Feldstudie habe ich Lücken im Verständnis der Zusammenhänge zwischen der Phosphorverfügbarkeit im Einzugsgebiet und im Bach unter naturnahen Bedingungen aufgedeckt und gezeigt, dass scheinbar vergleichbare Bäche signifikant unterschiedliche benthische Gemeinschaften aufweisen. Diese Unterschiede wirken sich höchstwahrscheinlich auf die Reaktion der Bäche auf zukünftige Änderungen aus.
Ziel dieser Bachelorarbeit war es, in die Musiknoten-Erkennungs Software AudiVeris eine Bildvorverarbeitung einzubauen, damit auch aus fehlerbehafteten Notenbildern Daten extrahiert werden können. Der Ablauf startet mit einer Binarisierung durch ein regionales Otsu Verfahren. Daraufhin wird das Notenblatt nach etwaigen Krümmungen abgesucht, wie sie z.B. eine Buchfalz verursachen würde. Dazu wird die Hough-Transformation zur Linienfindung und der K-Means-Algorithmus zur Cluster-Detektion verwendet. Aufbauend wird das Notenbild unter Benutzung der gefundenen Krümmung geebnet.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
Geschäftsregeln sind zu einem wichtigen Instrument geworden, um die Einhaltung der Vorschriften in ihren Geschäftsprozessen zu gewährleisten. Aber die Sammlung dieser Geschäftsregeln kann verschiedene widersprüchliche Elemente beinhalten. Dies kann zu einer Verletzung der zu erreichenden Compliance führen. Diese widersprüchlichen Elemente sind daher eine Art Inkonsistenzen oder Quasi-Inkonsistenzen in der Geschäftsregelbasis. Ziel dieser Arbeit ist es, zu untersuchen, wie diese Quasi-Inkonsistenzen in Geschäftsregeln erkannt und analysiert werden können. Zu diesem Zweck entwickeln wir eine umfassende Bibliothek, die es ermöglicht, Ergebnisse aus dem wissenschaftlichen Bereich der Inkonsistenzmessung auf Geschäftsregelformalismen anzuwenden, die tatsächlich in der Praxis verwendet werden.
Die folgende Bachelorarbeit gibt einen Überblick über verschiedene Ansätze und Verfahren zur prozeduralen Generierung von dreidimensionalen Stadtmodellen. Dabei wird vor allem die Nutzung generativer Grammatiken näher untersucht und in einer eigens implementierten Anwendung integriert. Der Schwerpunkt war es, ein vorgegebenes, primäres Straßennetz einzubinden und darauffolgend ein sekundäres Straßennetz sowie verschiedene Gebäude prozedural zu generieren. Die Anwendung ermöglicht es, umfangreiche und unterschiedlich strukturierte Stadtmodelle auf effiziente Weise zu erzeugen. Hinsichtlich des Realismus und Variantenreichtums weisen die Ergebnisse jedoch Grenzen auf.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Im Bereich der Computergraphik bilden die Nicht-Photorealistischen Renderingverfahren einen Schwerpunkt in der technischen und wissenschaftlichen Visualisierung, vor allem aber in den künstlerischen Bereichen. Verschiedene Kunststile, sowie Zeichenmaterialien und ihre Eigenschaften stellen unterschiedliche Herausforderungen dar. Eine dieser Herausforderungen ist hierbei die Simulation flüssiger Zeichenmittel.
Diese Arbeit beschäftigt sich mit der Erstellung eines interaktiven Zeichensystems für ein flüssiges Zeichenmittel, der Aquarellmalerei. Für die Simulation wird eine raue Zeichengrundlage generiert, sowie die Fluid Simulation und das optische Farbverhalten der Aquarellmalerei implementiert.
Will Eisners Graphic Novels zeugen von einer tiefgehenden Identitifation mit dem Judentum als Volkszugehörigkeit, Religion und Kultur und spiegeln das Judentum in all seinen Facetten wider. Dabei ist besonders hervorzuheben, dass die Entwicklung des Gesamtwerks parallel verläuft zur Geschichte der Emanzipation der jüdischen Bevölkerung in New York City. Der Band clustert die jüdischen Aspekte in Eisners Werk in beispielsweise Faktoren kollektiver Erinnerung, Umgang mit und Kampf gegen Antisemitismus und religiöse Besonderheiten.
In dieser Arbeit wird eine Unterrichtsreihe beschrieben, welche aus den drei Bereichen „mathematische Relationen“, „Datenbanken in Sozialen Netzwerken“ und „Datenschutz“ zusammengesetzt ist. Zu jedem Bereich wird ein eigener Unterrichtsentwurf präsentiert.
Außerdem wurde im Rahmen der vorliegenden Arbeit ein Programm zur Visualisierung der Relationen des Sozialen Netzwerks Instahub entworfen, welches im Anschluss an die Beschreibung der Unterrichtsreihe aufgeführt wird.
Data visualization is an effective way to explore data. It helps people to get a valuable insight of the data by placing it in a visual context. However, choosing a good chart without prior knowledge in the area is not a trivial job. Users have to manually explore all possible visualizations and decide upon ones that reflect relevant and desired trend in the data, are insightful and easy to decode, have a clear focus and appealing appearance. To address these challenges we developed a Tool for Automatic Generation of Good viSualizations using Scoring (TAG²S²). The approach tackles the problem of identifying an appropriate metric for judging visualizations as good or bad. It consists of two modules: visualization detection: given a data-set it creates a list of combination of data attributes for scoring and visualization ranking: scores each chart and decides which ones are good or bad. For the later, an utility metric of ten criteria was developed and each visualization detected in the first module is evaluated on these criteria. Only those visualizations that received enough scores are then presented to the user. Additionally to these data parameters, the tool considers user perception regarding the choice of visual encoding when selecting a visualization. To evaluate the utility of the metric and the importance of each criteria, test cases were developed, executed and the results presented.
Global-Illumination ist eine wichtige Komponente beim Rendering von realistischen Bildern. Der Rechenaufwand für die akkurate Simulation dieser Effekte ist jedoch zu hoch für die Berechnung in Echtzeit. In dieser Arbeit werden Light-Propagation-Volumes, Scren-Space-Reflections und mehrere Varianten von Screen-Space-Ambient-Occlusion als Lösungen für Echtzeitrendering untersucht. Es wird gezeigt, dass alle schnell genug für den Einsatz in Echtzeitanwendungen sind. Die einzelnen Techniken approximieren nur einige Aspekte des Transports von Licht, ergänzen sich jedoch gegenseitig.
The bio-insecticide Bacillus thuringiensis israelensis (Bti) has worldwide become the most commonly used agentin mosquito control programs that pursue two main objectives: the control of vector-borne diseases and the reduction of nuisance, mainly coming frommosquitoes that emerge in large quantities from seasonal wetlands. The Upper Rhine Valley, a biodiversity hotspot in Germany, has been treated withBti for decades to reduce mosquito-borne nuisance and increase human well-being.Although Btiis presumed to be an environmentally safe agent,adverse effects on wetland ecosystems are still a matter of debate especially when it comes to long-term and indirect effects on non-target organisms. In light of the above, this thesis aims at investigating direct and indirect effects of Bti-based mosquito control on non-target organisms within wetland food chains.Effects were examinedin studies with increasingeco(toxico)logical complexity, ranging from laboratory over mesocosm to field approaches with a focus on the non-biting Chironomidae and amphibian larvae (Rana temporaria, Lissotriton sp.).In addition, public acceptance of environmentally less invasive alternative mosquito control methods was evaluated within surveys among the local population.
Chironomids were the most severely affected non-target aquatic invertebrates. Bti substantially reduced larval and adult chironomid abundances and modified their species composition. Repeated exposures to commonly used Bti formulations induced sublethal alterations of enzymatic biomarkers activityin frog tadpoles. Bti-induced reductions of chironomid prey availability indirectly decreased body size of newts at metamorphosis and increased predation on newt larvae in mesocosm experiments. Indirect effects of severe reductions in midge biomassmight equally be passed through aquatic but also terrestrial food chains influencing predators of higher trophic levels. The majority ofaffectedpeople in the Upper Rhine Valley expressed a high willingness to contributefinancially to environmentally less harmful mosquito control.Alternative approaches could still include Bti applications excepting treatment of ecologically valuable areas. Potentially rising mosquito levels could be counteracted with local acting mosquito traps in domestic and urban areas because mosquito presence was experienced as most annoying in the home environment.
As Bti-based mosquito control can adversely affect wetland ecosystems, its large-scale applications, including nature conservation areas, should be considered more carefully to avoid harmful consequences for the environmentat the Upper Rhine Valley.This thesis emphasizesthe importance to reconsiderthe current practice of mosquito control and encourage research on alternative mosquito control concepts that are endorsed by the local population. In the context ofthe ongoing amphibian and insect declinesfurther human-induced effects onwetlands should be avoided to preserve biodiversity in functioning ecosystems.
As a result of the technical progress, processes have to be adjusted. On the one hand, the digital transformation is absolutely necessary for every organization to operate efficient and sustainable, on the other hand whose accomplishment is a tremendous challenge. The huge amount of personal data, which accrue in this context, is an additional difficulty.
Against the background of the General Data Protection Regulation (GDPR), this thesis focuses on process management and ways of optimizing processes in a Human Resources Department. Beside the analysis of already existing structures and workflows, data management and especially the handling of personal data in an application process are examined. Both topics, the process management and the data protection are vitally important by itself, but it is necessary to implement the requirements of data protection within the appropriate position of a corresponding process. Relating to this, the thesis deals with the research question of what barriers may occur by a sustainable process integration and to which extend the GDPR prevent an unobstructed workflow within the Human Resources Department of the Handwerkskammer Koblenz. Additionally, answering the question of which subprocesses are convenient for a process automation is highly significant.
In scope of these questions Business Process Management is the solution. By means of the graphical representation standard, Business Process Model and Notation, a process model with the relevant activities, documents and responsibilities of the recruitment process is designed. Based on a target-actual comparison it becomes apparent, that standardized process steps with less exceptions and a large amount of information are basically convenient for automation respectively partial automation. After the different phases of the recruitment process are documented in detail, a Workflow-Management-System can ex-port the transformed models, so the involved employees just have to carry out a task list with assigned exercises. Against the background of the data protection regulations, access rights and maturities can be determined. Subsequently only authorized employees have admission to the personal data of applicants. Because of impending sanctions by violation against the GDPR, the implementation of the relevant legal foundations within the recruitment process is necessary and appropriate. Relating to the defined research questions, it appears that in principle not every activity is appropriate for a process automation. Especially unpredictable and on a wide range of factors depending subprocesses are unsuitable. Additionally, media discontinuities and redundant data input are obstacles to an enduring process integration. Nevertheless, a coherent consideration of the topics of business process management and the data protection regulations is required.
In keinem Bereich der Informatik hat sich die Hardware so rasant entwickelt wie im Bereich der Computergrafik. So können wir heute komplexe, geometrische Szenen in Echtzeit in immersiven Systemen darstellen und auch aufwendige Simulationen integrieren.
Ziel dieser Arbeit ist es, die Simulation von Farbspritzern in einer virtuellen Welt zu realisieren. Hierzu wird mithilfe von Unity eine Anwendung umgesetzt, die drei verschiedene Techniken verwendet, mit denen die Umgebung mithilfe von Farbspritzern eingefärbt werden kann. Auf Basis dieser Anwendung werden die Grenzen und Möglichkeiten der Techniken in virtuellen Umgebungen genauer untersucht.
Diese Untersuchung zeigt, dass eine inverse Projektion die besten Ergebnisse vorweist.
Seit der Domestizierung von Wein vor über 6000 Jahren haben Weinbauern mit Krankheiten und Schädlingen ihrer Pflanzen zu kämpfen. Seitdem führen neue Anbaumethoden und ein besseres Verständnis der ökologischen Prozesse im Weinberg zu wachsenden Erträgen und steigender Traubenqualität. In dieser Arbeit beschreibe ich die Effekte zweier innovativer Anbaumethoden auf Schädlinge und Nützlinge im Weinbau; Pilzwiderstandsfähige Sorten (PIWIs) und das Reberziehungssystem Minimalschnitt im Spalier (SMPH). SMPH erlaubt eine drastische Reduktion des Arbeitsaufwands im Weinberg. PIWIs sind resistent gegenüber zwei der destruktivsten Pilzkrankheiten der Rebe und bleiben daher bei deutlich weniger Pflanzenschutzbehandlungen als herkömmliche Sorten gesund. Übermäßiger Gebrauch von Pestiziden wird mit einer Reihe von Problemen wie Gewässerverschmutzung, Gesundheitsfolgen beim Menschen, und Biodiversitätsverlust in Verbindung gebracht. In dieser Arbeit wurden Effekte von reduzierten Fungizid Spritzungen auf Nützlinge wie Raubmilben, Spinnen, Ameisen, Ohrwürmer und Florfliegen untersucht. Diese Gruppen profitierten entweder von den reduzierten Fungizidmengen, oder sie wurden nicht signifikant beeinflusst. Strukturelle Unterschiede in der SMPH Laubwand beeinflussten das Mikroklima im Vergleich zur Spaliererziehung. Sowohl strukturelle als auch mikroklimatische Veränderungen beeinflussten einige Arthropodengruppen im Wein.
Insgesamt lässt sich Schlussfolgern, dass sowohl PIWI Sorten als auch das Schnittsystem SMPH ein großes Potential haben, die Bedingungen für natürliche Schädlingskontrolle zu verbessern. Dies reiht sich in eine Liste anderer Vorteile dieser Managementmethoden, wie zum Beispiel eine Reduktion der Produktionskosten und verbesserte Nachhaltigkeit.
Bildsynthese durch Raytracing gewinnt durch Hardware-Unterstützung in Verbraucher-Grafikkarten eine immer größer werdende Relevanz. Der Linespace dient dabei als eine neue, vielversprechende Beschleunigungsstruktur. Durch seine richtungsbasierte Natur ist es sinnvoll, ihn in andere Datenstrukturen zu integrieren. Bisher wurde er in ein Uniform-Grid integriert. Problematisch werden einheitlich große Voxel allerdings bei Szenen mit variierbarem Detailgrad. Diese Arbeit führt den adaptiven Linespace ein, eine Kombination aus Octree und Linespace. Die Struktur wird hinsichtlich ihrer Beschleunigungsfähigkeit untersucht und mit dem bisherigen Grid-Ansatz verglichen. Es wird gezeigt, dass der adaptive Linespace für hohe Grid-Auflösungen besser skaliert, durch eine ineffiziente GPU-Nutzung allerdings keine optimalen Werte erzielt.