Refine
Year of publication
- 2014 (104) (remove)
Document Type
- Bachelor Thesis (42)
- Doctoral Thesis (24)
- Part of Periodical (20)
- Master's Thesis (14)
- Diploma Thesis (2)
- Conference Proceedings (1)
- Report (1)
Keywords
- Vorlesungsverzeichnis (6)
- OpenGL (3)
- Android (2)
- Graphik (2)
- Pestizid (2)
- Pflanzenschutzmittel (2)
- Smartphone (2)
- VOXEL (2)
- Wasseroberfläche (2)
- monitoring (2)
Institute
- Institut für Computervisualistik (24)
- Institut für Management (20)
- Zentrale Einrichtungen (15)
- Fachbereich 4 (10)
- Institut für Informatik (10)
- Fachbereich 7 (9)
- Institut für Wirtschafts- und Verwaltungsinformatik (5)
- Institute for Web Science and Technologies (5)
- Fachbereich 5 (4)
- Institut für Erziehungswissenschaft (3)
- Fachbereich 8 (2)
- Fachbereich 6 (1)
- Institut für Anglistik und Amerikanistik (1)
- Institut für Grundschulpädagogik (1)
- Institut für Integrierte Naturwissenschaften (1)
- Institut für Integrierte Naturwissenschaften, Abt. Geographie (1)
- Institut für Kunstwissenschaft und Bildende Kunst (1)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (1)
- Institut für Softwaretechnik (1)
- Institut für Umweltwissenschaften (1)
Der Apple ][ war einer der drei ersten kompletten Computersysteme auf dem Markt. Von April 1977 an wurde er rund 16 Jahre lang mehrere Millionen mal verkauft. Entwickelt wurde dieser 8 Bit Homecomputer von Steve Wozniak und Steve Jobs. Sie ebneten damit den Weg für den Macintosh und das heute gut bekannte Unternehmen Apple.
Diese Arbeit beschreibt die Implementierung eines Softwareemulators für das komplette Apple ][ Computersystem auf nur einem Atmel AVR Microcontroller. Die größte Herausforderung besteht darin, dass der Microcontroller nur eine geringfügig höhere Taktrate als die zu emulierende Hardware hat. Dies erfordert eine effiziente Emulation der CPU und Speicherverwaltung, die nachfolgend zusammen mit der Laufzeitumgebung für die Emulation vorgestellt wird. Weiterhin wird die Umsetzung des Emulators mit Display und Tastatur in Hardware naher erläutert.
Mit dieser Arbeit wird die erfolgreiche Entwicklung eines portablen Apple ][ Emulators, von der Software über die Hardware bis hin zu einem Prototypen, vorgestellt.
Field margins are often the only remaining habitats of various wild plant species in agricultural landscapes. However, due to their proximity to agricultural fields, the vegetation of field margins can be affected by agrochemicals applied to the crop fields. The aim of this thesis was to investigate the individual and combined effects of herbicide, insecticide and fertilizer inputs on the plant community of a field margin. Therefore, a 3-year field experiment with a randomized block design including seven treatments (H: herbicide, I: insecticide, F: fertilizer, H+I, F+I, F+H and F+H+I) and one control was conducted on a low-production meadow. Each treatment was replicated 8 times in 8 m x 8 m plots with a distance of 2 m between each plot. The fertilizer rates (25 % of the field rate) and pesticide rates (30 % of the field rate) used for the plot applications were consistent with realistic average input rates (overspray + drift) in the first meter of a field margin directly adjacent to a wheat field.
The study revealed that fertilizer and herbicide misplacements in field margins are major factors that affect the natural plant communities of these habitats. In total, 20 of the 26 abundant species on the study site were significantly affected by the fertilizer and herbicide treatment. The fertilizer promoted plants with high nutrient uptake and decreased the frequencies of small species. The herbicide caused a nearly complete disappearance of three species directly after the first application, whereas sublethal effects (e.g., phytotoxic effects and reduced seed productions of up to 100 %) were observed for the other affected species. However, if field margins are exposed to repeated agrochemical applications over several years, then such sublethal effects (particularly reproduction effects) also reduce the population size of plant species significantly, as observed in this study.
Significant herbicide-fertilizer interaction effects were also detected and could not be extrapolated from individual effects. The fertilizer and herbicide effects became stronger over time, leading to shifts in plant community compositions after three years and to a 15 % lower species diversity than in the control. The insecticide significantly affected the frequencies of two plant species (1 positively and 1 negatively). The results of the experiment suggest that a continuous annual agrochemical application on the study site would cause further plant community shifts and would likely lead to the disappearance of certain affected plants. A clear trend of increasing grass dominance at the expense of flowering herbs was detected. This finding corresponds well with monitoring data from field margins near the study site.
Although herbicide risk assessment aims to protect non-target plants in off-field habitats from adverse effects, reproduction effects and combined effects are currently not considered. Furthermore, no regulations for fertilizer applications next to field margins exist and thus, fertilizer misplacements in field margins are likely to occur and to interact with herbicide effects.
Adaptations of the current risk assessment, a development of risk mitigation measures (e.g., in-field buffers) for the application of herbicides and fertilizers, and general management measures for field margins are needed to restore and conserve plant diversity in field margins in agricultural landscapes.
Im Laufe der letzten Jahre hat sich der typische Komplex an kritischen Erfolgsfaktoren für Unternehmen verändert, infolgedessen der Faktor Wissen eine wachsende Bedeutung erlangt hat. Insofern kann man zum heutigen Zeitpunkt von Wissen als viertem Produktionsfaktor sprechen, welcher die Faktoren Arbeit, Kapital und Boden als wichtigste Faktoren eines Unternehmens ablöst (vgl. Keller & Yeaple 2013, S. 2; Kogut & Zander 1993, S. 631). Dies liegt darin begründet, dass aktive Maßnahmen zur Unterstützung von Wissenstransfer in Unternehmen höhere Profite und Marktanteile sowie bessere Überlebensfähigkeit gegenüber Wettbewerbern ohne derartige Maßnahmen nach sich ziehen (vgl. Argote 1999, S. 28; Szulanski 1996, S. 27; Osterloh & Frey 2000, S. 538). Der hauptsächliche Vorteil von wissensbasierten Entwicklungen liegt dabei in deren Nachhaltigkeit, da aufgrund der immateriellen Struktur (vgl. Inkpen & Dinur 1998, S. 456; Spender 1996a, S. 65 f.; Spender 1996b, S. 49; Nelson & Winter 1982, S. 76 ff.) eine Nachahmung durch Wettbewerber erschwert wird (vgl. Wernerfelt 1984, S. 173; Barney 1991, S. 102).
In diesem Bericht wird der Einsatz von drahtlosen Sensornetzen zur Temperaturmessung in Fließgewässern untersucht. Es wird dargestellt, inwieweit solche Netze als Bindeglied zwischen Fernerkundung und stationären Sensoren eingesetzt werden können. Es werden die Anforderungen an Sensornetze für die Anwendung Gewässermonitoring ermittelt und eine prototypische Realisierung von Netzknoten für ein solches Sensornetz dargestellt. Als Ergebnis dieser Arbeit werden die Genauigkeit von Temperaturmessungen mit solchen Sensorknoten im Vergleich zu einem Temperaturlogger als Referenzsystem dargestellt. Die Messungen zeigen, dass eine vergleichsweise gute Messgenauigkeit zu geringen Kosten erreichbar ist. Durch Weiterentwicklung des hier dargestellten Prototypen steht für die Temperaturüberwachung in Gewässern ein vielversprechendes und kostengünstiges neues Messinstrument zur Verfügung. Dieses kann auf der einen Seite in tieferen Regionen Gewässertemperaturen messen, als dies mit Fernerkundung möglich ist, und auf der anderen Seite eine höhere räumliche Auflösung als stationäre Messstationen erreichen. Zusätzlich dienen die Literaturrecherche und die Formulierung der Kriterien einer Eingrenzung des Anwendungsbereichs für weiterführende Arbeiten.
Der Markt der mobilen Endgeräte entwickelt sich schnell weiter und es kommen schon Kinder im frühsten Alter mit solchen Technologien in Berührung. Daher ist es wichtig, Kinder richtig an die Geräte heranzuführen. Von Vorteil wäre eine Einbindung von Smartphones und Tablets, im Bezug auf den Lernprozess, in den Unterricht. Die vorliegende Arbeit behandelt deshalb das Konzept einer Lernspielapp, die durch Pädagogen konfiguriert werden kann. Die Evaluation soll Aufschluss über die Motivation der Kinder geben und die Aufgeschlossenheit der Pädagogen gegenüber neuen Medien ermitteln.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
This study explored the question whether greenhouse gas mitigation projects in Namibia could be initiated through local economic development programmes. In particular, research was done on whether the Clean Development Mechanism (CDM) of the Kyoto Protocol could play an essential role in the promotion of such mitigation projects.
In a first step supporting and inhibiting factors (potential for mitigation projects, business and investment climate, institutions, etc.) were discussed, which have a negative or positive influence on mitigation projects. In a second step the mind-set of climate and energy experts as well as of local economic development experts and practitioners was analysed with regard to the research questions. To this end, 229 questionnaires, 28 interviews and the output of a focus group discussion with 20 participants were evaluated. Additionally, the author conducted a real life case study to investigate the practicability of initiating greenhouse gas mitigation projects through local economic development efforts. Parallel to the development of an economic development strategy in the Namibian region of Otjozondjupa, the potential for greenhouse gas mitigation projects was explored. Based on the outcome of this investigation project ideas were developed and their potential socio-economic impact was evaluated. Promising projects were then included into the development strategy.
Due to various factors such as the complexity of CDM, low greenhouse gas emissions in Namibia, the low price of emission rights and insufficient financial means it is unlikely that CDM projects can be initiated through local economic development initiatives in Namibia. However, many stakeholders consider the idea of interlinking mitigation projects and local economic development initiatives favourably as long as such projects support the broader objectives of those initiatives. This research has shown that locally initiated mitigation projects do not contribute much to employment or income generation at the local level in Namibia. Thus, national strategic objectives should be considered, such as improving access to electricity to all strata of society or becoming less dependent on electricity imports. This requires, however, that local economic development strategies also cover the energy sector, that local governments are willing and capacitated to initiate mitigation projects, that national and local public institutions work together more closely, that national and local economic framework conditions are improved so as to attract private investments, and that the experiences and interests of the relevant stakeholders are considered throughout the project development process.
This work is mainly concerned with multiple goals as indicators of stable as well as situation-specific motivation. During school lessons, pupils strive for competence-oriented goals as well as goals which target psychological well-being. The goal to enlarge one- competence and to acquire deeper knowledge (mastery goal), to attain normative competence (performance approach goal) as well as the goal to avoid the demonstration of lack ofrncompetence (performance avoidance goal) belong to the category of academic goals. The category of well-being goals includes the goal to avoid hard work (work avoidance goal) as well as the aim to interact socially with relevant peers (affiliation goal).
It is still unclear, however, if goals are best defined as fluctuating state or stable trait variables. Here, both aspects of goals are conceptualized differentially and their connection is explored in two studies based on a longitudinal design. Another question that is raised here is concerned with the explanation of state-goal-genesis. Different motivational theories serve as the basis for the development of a new framework model, which explores the genesis of state goal-components due to trait goal-components, situational appraisals and their interaction. In the literature, three effect models between appraisals and trait goals regarding the state goals are identified: a) appraisals and trait goals might predict state goals additively (additive effect), b) trait goals might influence the state goals mediated by the appraisals (reactive effect), or c) the trait goals may have differential effects on the state goals for low or high values of the appraisals (interaction effect). Moreover, assumptions on proximal consequences of state-goals are made within the framework model.
Study 1 comprised of two samples (N = 197 and N = 297). Both multiple goal factors as well as their state- and trait-components were validated empirically in a longitudinal design. State goal measures proved to be sensitive to situational influences and to be differentially valid compared to trait goal measures. Study 2 primarily dealt with the explanationrnof the genesis of state goals in actual learning situations. The basic assumptions of the framework model as well as the three effect models were explored systematically in a longitudinal design (N = 542). As expected, competence oriented goals correlated with adaptive indicators of learning processes (e.g., flow), while the well-being goals did not. The additive effect hypothesis was confirmed while the reactive effect hypothesis was rejected. With the help of latent moderator models, some interaction effects were identified which showed that trait goals were differentially predictive for state goals depending on the level of situational appraisals.
Diffusion imaging captures the movement of water molecules in tissue by applying varying gradient fields in a magnetic resonance imaging (MRI)-based setting. It poses a crucial contribution to in vivo examinations of neuronal connections: The local diffusion profile enables inference of the position and orientation of fiber pathways. Diffusion imaging is a significant technique for fundamental neuroscience, in which pathways connecting cortical activation zones are examined, and for neurosurgical planning, where fiber reconstructions are considered as intervention related risk structures.
Diffusion tensor imaging (DTI) is currently applied in clinical environments in order to model the MRI signal due to its fast acquisition and reconstruction time. However, the inability of DTI to model complex intra-voxel diffusion distributions gave rise to an advanced reconstruction scheme which is known as high angular resolution diffusion imaging (HARDI). HARDI received increasing interest in neuroscience due to its potential to provide a more accurate view of pathway configurations in the human brain.
In order to fully exploit the advantages of HARDI over DTI, advanced fiber reconstructions and visualizations are required. This work presents novel approaches contributing to current research in the field of diffusion image processing and visualization. Diffusion classification, tractography, and visualizations approaches were designed to enable a meaningful exploration of neuronal connections as well as their constitution. Furthermore, an interactive neurosurgical planning tool with consideration of neuronal pathways was developed.
The research results in this work provide an enhanced and task-related insight into neuronal connections for neuroscientists as well as neurosurgeons and contribute to the implementation of HARDI in clinical environments.
Die Studie befasst sich mit der Bildungsaspiration, der Wertevermittlung und -tradierung iranischstämmiger Familien in Deutschland. Ziel ist es, zu ermitteln, worauf die familiäre Bildungsaspiration zurückzuführen ist. Im Fokus der Fallstudie stehen drei Familien, die nach der Islamischen Revolution von 1979 aus ihrem Herkunftsland nach Deutschland immigriert sind. Es handelt sich um eine zweigenerationenperspektivische Befragung innerhalb einer Familie. Dies bedeutet, dass innerhalb einer Familie Einzelinterviews mit jeweils einer Person aus der Eltern- und Kindergeneration durchgeführt wurden. So werden gemeinsam erlebte Situationen, wie z.B. Flucht oder Teilhabe am deutschen Bildungssystem, oder Begriffe, wie z.B. Bildung oder Bildungserfolg, aus der jeweiligen Perspektive geschildert bzw. definiert. Darüber hinaus geben die Befragten Auskünfte über die Großelterngeneration, sodass das gesamte Datenmaterial Angaben über drei Generationen umfasst. Dieser qualitativen Exploration geht eine bundesweite Befragung voraus an der 70 Personen iranischer Herkunft teilnahmen. Weiterhin zeichnet sich die Arbeit durch einen ressourcenorientierten Forschungsansatz aus. Die erhobenen Daten geben Antwort auf die zentralen Fragen:
Auf welche Ursachen lässt sich Bildungsaspiration von immigrierten, iranischstämmigen Familien in Deutschland zurückführen?
Welche Rolle spielen die Sprachen des Herkunfts- und Einwanderungslandes in der Wertetradierung? In der Studie werden die individuellen Bildungsgeschichten der Befragten in den wissenschaftlichen Diskurs zur Bildungsaspiration, Bildungs-, Migrations- und Mehrsprachigkeitsforschung eingefügt. Hierbei wird ein interdisziplinäres und somit multiperspektivisches Theoriekonstrukt zugrunde gelegt, welches sich durch einen geschichts-, länder- und generationsübergreifenden Forschungsansatz auszeichnet. Ein zentrales Ergebnis ist, dass ein Verständnis für geschichtliche Entwicklungen im Herkunftsland erforderlich ist, um das Bildungsverhalten im iranischstämmigen Familienkontext nachzuvollziehen. Erst durch Kontextualisierung von individuellen und gesellschaftlichen Dimensionen kann nachvollzogen werden, warum im Falle dieser Minderheitengruppe geringes ökonomisches Kapital, das infolge von beruflichen Brüchen der Eltern nach ihrer Flucht im Einwanderungsland entstanden ist, keine negativen Auswirkungen auf die Entwicklung des kulturellen Kapitals der Folgegenerationen hat. Folglich zeigt die Studie, dass im Falle der interviewten Familien gängige Erklärungsmodelle, wie die Korrelation vom geringem ökonomischen Kapital und geringem kulturellen Kapital, nicht zutreffen. Vielmehr wird kulturelles Kapital von Generation zu Generation tradiert. Ein weiteres Ergebnis der Studie ist das erarbeitete Dreiebenen-Modell. Es umfasst geschichtlich-gesellschaftliche, politische sowie familiäre Entwicklungen und Einstellungen auf der Mikro-, Meso- und Makroebene. Damit ist eine Grundlage geschaffen, um das Tradierungsverhalten anderer Zuwanderungsgruppen zu erklären.
Zusätzlich zum Rendern wird die Rechenleistung moderner Grafikkarten immer häufiger auch für allgemeine Berechnungen (GPGPU) genutzt. Für die Umsetzung stehen verschiedene Möglichkeiten zur Verfügung, die von der Verwendung der Renderingpipeline bis zu eigenständigen Schnittstellen reichen. In dieser Arbeit werden mit Render-To-Texture, Transform Feedback, Compute Shader und OpenCL vier verschiedene GPGPU-Methoden untersucht. Anhand von Partikelsystemen werden sie hinsichtlich der benötigten Berechnungszeit, der GPU-Auslastung, Lines of Code und Portierbarkeit miteinander verglichen. Dazu wurden sowohl das N-Körper Problem, Smoothed Particle Hydrodynamics und ein Partikelschwarm als Partikelsysteme umgesetzt. Es konnte gezeigt werden, dass insbesondere OpenCL und Compute Shader sehr gute Ergebnisse liefern.
Aufgrund des branchenweiten Bedarfs den Konkurrenzkampf zu umgehen, entwickelten Kim und Mauborgne die Blue Ocean Strategy, um neue Märkte zu ergründen. Diese bezeichnen sie als einzigartig. Da jedoch weitere Strategien zur Ergründung neuer Märkte existieren, ist es das Ziel dieser Arbeit herauszufinden, anhand welcher Charakterisierungsmerkmale die Blue Ocean Strategy als einzigartig angesehen werden kann.
Die Strategie von Kim und Mauborgne soll daher mit Schumpeters schöpferischen Zerstörung, Ansoffs Diversifikationsstrategie, Porters Nischenstrategie und Druckers Innovationsstrategien verglichen werden. Für den Vergleich werden die Charakterisierungsmerkmale herangezogen, nach denen Kim und Mauborgne die Blue Ocean Strategy als einzigartig beurteilen. Auf Basis dieser Kriterien wird ein Metamodell entwickelt, mit dessen Hilfe die Untersuchung durchgeführt wird.
Der Vergleich zeigt, dass die Konzepte von Schumpeter, Ansoff, Porter und Drucker in einigen Kriterien der Blue Ocean Strategy ähneln. Keine der Strategien verhält sich jedoch in allen Punkten so wie das Konzept von Kim und Mauborgne. Während die Blue Ocean Strategy ein Differenzierung und Senkung der Kosten anstrebt, orientieren sich die meisten Konzepte entweder an einer Differenzierung oder an einer Kostenreduktion. Auch die Betretung des neuen Marktes wird unterschiedlich interpretiert. Während die Blue Ocean Strategy auf einen Markt abzielt, der unergründet ist und somit keinen Wettbewerb vorweist, werden bei den anderen Strategien oft bestehende Märkte als neu interpretiert, auf denen das Unternehmen bisher nicht agiert hat. Dies schließt die vorherige Existenz der Märkte jedoch nicht aus.
Auf Basis der durch den Vergleich gezogenen Erkenntnisse, kann somit die Blue Ocean Strategy als einzigartig bezeichnet werden.
The aim of this paper is to identify and understand the risks and issues companies are experiencing from the business use of social media and to develop a framework for describing and categorising those social media risks. The goal is to contribute to the evolving theorisation of social media risk and to provide a foundation for the further development of social media risk management strategies and processes. The study findings identify thirty risk types organised into five categories (technical, human, content, compliance and reputational). A risk-chain is used to illustrate the complex interrelated, multi-stakeholder nature of these risks and directions for future work are identified.
The way information is presented to users in online community platforms has an influence on the way the users create new information. This is the case, for instance, in question-answering fora, crowdsourcing platforms or other social computation settings. To better understand the effects of presentation policies on user activity, we introduce a generative model of user behaviour in this paper. Running simulations based on this user behaviour we demonstrate the ability of the model to evoke macro phenomena comparable to the ones observed on real world data.
Modeling and publishing Linked Open Data (LOD) involves the choice of which vocabulary to use. This choice is far from trivial and poses a challenge to a Linked Data engineer. It covers the search for appropriate vocabulary terms, making decisions regarding the number of vocabularies to consider in the design process, as well as the way of selecting and combining vocabularies. Until today, there is no study that investigates the different strategies of reusing vocabularies for LOD modeling and publishing. In this paper, we present the results of a survey with 79 participants that examines the most preferred vocabulary reuse strategies of LOD modeling. Participants of our survey are LOD publishers and practitioners. Their task was to assess different vocabulary reuse strategies and explain their ranking decision. We found significant differences between the modeling strategies that range from reusing popular vocabularies, minimizing the number of vocabularies, and staying within one domain vocabulary. A very interesting insight is that the popularity in the meaning of how frequent a vocabulary is used in a data source is more important than how often individual classes and properties arernused in the LOD cloud. Overall, the results of this survey help in understanding the strategies how data engineers reuse vocabularies, and theyrnmay also be used to develop future vocabulary engineering tools.
Remote rendering services offer the possibility to stream high quality images to lower powered devices. Due to the transmission of data the interactivity of applications is afflicted with a delay. A method to reduce delay of the camera manipulation on the client is called 3d-warping. This method causes artifacts. In this thesis different approaches of remote rendering setups will be shown. The artifacts and improvements of the warping method will be described. Methods to reduce the artifacts will be implemented and analyzed.
Next word prediction is the task of suggesting the most probable word a user will type next. Current approaches are based on the empirical analysis of corpora (large text files) resulting in probability distributions over the different sequences that occur in the corpus. The resulting language models are then used for predicting the most likely next word. State-of-the-art language models are based on n-grams and use smoothing algorithms like modified Kneser-Ney smoothing in order to reduce the data sparsity by adjusting the probability distribution of unseen sequences. Previous research has shown that building word pairs with different distances by inserting wildcard words into the sequences can result in better predictions by further reducing data sparsity. The aim of this thesis is to formalize this novel approach and implement it by also including modified Kneser-Ney smoothing.
3D-models are getting more important in many areas such as multimedia applications, robotics or film industries. Of particular interest is the creation of 3D-models from a series of monocular images. This is because the cameras that are required for this purpose are becoming cheaper, smaller and more sophisticated at the same time. Increasingly often, suitable cameras are already integrated in devices like smartphones, tablet PCs or cars for example. Hence, there is a great potential for applications of this reconstruction technique.
This thesis is based on the use of a series of images that were taken with arncalibrated camera. The first step is to extract point correspondences from this image series making use of the well-known SURF- and A-KAZE-features. Starting from the point correspondences, it is possible to reconstruct a 3D-Modell with different algorithms that consists of a point cloud and camera poses. To reduce errors in the 3D-model, this thesis especially focuses on explaining the bundle adjustment algorithm, which is being used for a non-linear error minimization of a cost function.
The thesis also introduces the application for the 3D-reconstruction and the visualization of the results, that was developed in the course of this thesis.
The implemented system is evaluated based on statistics and the newly aquiredrnknowledge is presented. The thesis concludes with a summary of its results, and a number of ideas for potential future applications and developments.
This thesis imparts a general view of the mechanics and implementation of latest voxelization strategies using the GPU. In addition to established voxelization procedures using the rasterization pipeline, new possibilities arising from GPGPU programming are examined. On the basis of the programming language C++ and the graphics library OpenGL the implementation of several methods is explained. The methods are compared in terms of performance and quality of the resulting voxelization and are evaluated critically with regards to possible use cases. Furthermore, two exemplary applications are detailed that use a voxelized scene in such a way that the augmentation of established techniques of real time graphics are facilitated. To this end, the concepts and the implementations of Transmittance Shadow Mapping and of Reflective Shadow Mapping utilizing a voxel based ambient occlusion effect is explained. Finally, the prolonging relevance of voxelization is put into prospect, by addressing latest research and further enhancements and applications of the presented methods.
This thesis deals with quality assurance of model-based SRS, in particular SRS-Models and SRS-Diagrams. The interesting thing about model-based SRS is that they are generated by a documentation generator based on the following input data: SRS-Model, SRS-Diagrams and texts external to the model. Therefore to assure the quality of the documentation the quality of their four factors must be assured, which are the SRS-Model, SRS-Diagrams, external texts and the documentation generator. The thesis" goal is to define a quality connotation for SRS-Models and -Diagrams and to show an approach for realizing automatically quality testing, measurement and assessment for the modelling tool Innovator.
This study examined whether positive resource change and two types of baseline stressors would influence general life satisfaction and satisfaction with health at the end of treatment in mothers attending an inpatient rehabilitation or preventive program for mothers, fathers and children. Parenting self-efficacy was included as an indicator of resources while baseline distress was operationalized in terms of parenting-related stressors and depressive symptoms, respectively. Drawing on Hobfoll- conservation of resources theory, it was hypothesized that resource change and baseline stressors would interact in their effect on satisfaction measures at the end of the preventive/rehabilitation program: resource gains were expected to influence satisfaction more strongly in patients who reported higher stress levels at baseline (as compared to patients with lower baseline distress; primary research question). Hypotheses were tested using a sample of N=1724 female prevention and rehabilitation patients by means of structural equation modeling including latent interactions. Results showed that parenting-related stressors were negatively associated with general satisfaction as well as satisfaction with health while resource gains had a small positive effect on satisfaction. There was, however, no significant interaction of parenting-related stressors and positive resource change. When depressive symptoms were included as a measure of baseline distress, they were negatively associated with both facets of satisfaction. In these models, there were only small positive associations of resource gains and satisfaction measures. Again, no interaction effects were found. Additional analyses that comprised both stressor types as predictors showed that the effects of depressive symptoms on satisfaction were more pronounced than the influence of parenting-related stressors; the effects of resource gains were small to negligible. In addition, it was examined whether problem-oriented coping strategies mediated the influence of positive resource change on general life satisfaction and satisfaction with health, respectively (secondary research question). Correlations between coping, resource change and satisfaction were low or not significant. Given this lack of direct associations between the relevant variables, no further path analytic testing was performed; the hypothesized mediating role of problem-oriented coping could thus not be confirmed. All in all, study results show that contrary to the hypotheses derived from conservation of resources theory, the effects of positive resource change and distress indicators on patients" life satisfaction and satisfaction with health were not interdependent.
A guideline for the examination of business models is developed in this research project and M.Sc. study, focusing on young, innovative enterprises ("start-ups"). Start-ups often start to operate in uncertainty and tentativeness. To forecast the success of such an enterprise is therefore today hardly possible by means of quantitative data. The evaluation of innovative business models ("Business Model Check") today is a gap in Business Administration and Management studies.
Data Mining im Fußball
(2014)
The term Data Mining is used to describe applications that can be applied to extract useful information from large datasets. Since the 2011/2012 season of the german soccer league, extensive data from the first and second Bundesliga have been recorded and stored. Up to 2000 events are recorded for each game.
The question arises, whether it is possible to use Data Mining to extract patterns from this extensive data which could be useful to soccer clubs.
In this thesis, Data Mining is applied to the data of the first Bundesliga to measure the value of individual soccer players for their club. For this purpose, the state of the art and the available data are described. Furthermore, classification, regression analysis and clustering are applied to the available data. This thesis focuses on qualitative characteristics of soccer players like the nomination for the national squad or the marks players get for their playing performance. Additionally this thesis considers the playing style of the available players and examines if it is possible to make predictions for upcoming seasons. The value of individual players is determined by using regression analysis and a combination of cluster analysis and regression analysis.
Even though not all applications can achieve sufficient results, this thesis shows that Data Mining has the potential to be applied to soccer data. The value of a player can be measured with the help of the two approaches, allowing simple visualization of the importance of a player for his club.
Systems to simulate crowd-behavior are used to simulate the evacuation of a crowd in case of an emergency. These systems are limited to the moving-patterns of a crowd and are generally not considering psychological and/or physical conditions. Changing behaviors within the crowd (e.g. by a person falling down) are not considered.
For that reason, this thesis will examine the psychological behavior and the physical impact of a crowd- member on the crowd. In order to do so, this study develops a real-time simulation for a crowd of people, adapted from a system for video games. This system contains a behavior-AI for agents. In order to show physical interaction between the agents and their environment as well as their movements, the physical representation of each agent is realized by using rigid bodies from a physics-engine. The movements of the agents have an additional navigation mesh and an algorithm for collision avoidance.
By developing a behavior-AI a physical and psychological state is reached. This state contains a psychological stress-level as well as a physical condition. The developed simulation is able to show physical impacts such as crowding and crushing of agents, interaction of agents with their environment as well as factors of stress.
By evaluating several tests of the simulation, this thesis examines whether the combination of physical and psychological impacts is implementable successfully. If so, this thesis will be able to give indications of an agent- behavior in dangerous and/or stressful situations as well as a valuation of the complex physical representation.
Ziel dieser Ausarbeitung ist es, das Wippe-Experiment gemäß dem Aufbau innerhalb der AG Echtzeitsysteme unter Leitung von Professor Dr. Dieter Zöbel mithilfe eines LEGO Mindstorms NXT Education-Bausatzes funktionsfähig nachzubauen und das Vorgehen zu dokumentieren. Der dabei entstehende Programmcode soll didaktisch aufbereitet und eine Bauanleitung zur Verfügung gestellt werden. Dies soll gewährleisten, dass Schülerinnen und Schüler auch ohne direkten Zugang zu einer Hochschule oder ähnlichem Institut den Versuchsaufbau Wippe möglichst unkompliziert im Klassenraum erleben können.
Diese Studie leistet einen Beitrag zur Weiterentwicklung der Nachrichtenwerttheorie. Hierzu wird das Konzept der Fotonachrichtenfaktoren zunächst theoretisch aufgearbeitet und seine Plausibilität anhand verschiedener Teilbereiche der Journalismusforschung dargelegt. Darauf aufbauend wird es im Rahmen einer Inhaltsanalyse eingesetzt, die die Prüfung des erweiterten Modells der Nachrichtenwerttheorie ermöglicht. Dieses Modell geht von einem gemeinsamen Einfluss der textbasierten Nachrichtenfaktoren und der Fotonachrichtenfaktoren auf den Nachrichtenwert bzw. die journalistische Beachtung eines Beitrags aus. Ergänzend werden die Fotonachrichtenfaktoren zur Bildung von Fototypen herangezogen. Die Analysen werden am Beispiel der Kriegs- und Krisenberichterstattung deutscher Tageszeitungen durchgeführt. Dieser Themenbereich des Journalismus genießt viel Aufmerksamkeit sowohl bei Medienrezipienten als auch bei Kommunikationswissenschaftlern. Die Ergebnisse der Studie unterstützen die Grundidee der Fotonachrichtenfaktoren: Sie können, ähnlich wie die textbasierten Nachrichtenfaktoren, zu übergeordneten Bündeln zusammengefasst werden. Diese Bündel zeigen Einflüsse auf die formale Gestaltung der Fotos und können gemeinsam mit den Textnachrichtenfaktoren teilweise die journalistische Beachtung des Artikels erklären. Darüber hinaus ist die gewählte Operationalisierung der Fotonachrichtenfaktoren geeignet, Fototypen bzw. zentrale Motive der visuellen Kriegsberichterstattung deutscher Tageszeitungen zu identifizieren. Die Ergebnisse dieser Studie liefern Ausgangspunkte für weitere Fragestellungen zum Zusammenwirken der Text- und Fotonachrichtenfaktoren, der Anwendung der Zwei-Komponenten-Theorie und der Wirkung von typischen Bildmotiven.
The availability of digital cameras and the possibility to take photos at no cost lead to an increasing amount of digital photos online and on private computers. The pure amount of data makes approaches that support users in the administration of the photo necessary. As the automatic understanding of photo content is still an unsolved task, metadata is needed for supporting administrative tasks like search or photo work such as the generation of photo books. Meta-information textually describes the depicted scene or consists of information on how good or interesting a photo is.
In this thesis, an approach for creating meta-information without additional effort for the user is investigated. Eye tracking data is used to measure the human visual attention. This attention is analyzed with the objective of information creation in the form of metadata. The gaze paths of users working with photos are recorded, for example, while they are searching for photos or while they are just viewing photo collections.
Eye tracking hardware is developing fast within the last years. Because of falling prices for sensor hardware such as cameras and more competition on the eye tracker market, the prices are falling, and the usability is increasing. It can be assumed that eye tracking technology can soon be used in everyday devices such as laptops or mobile phones. The exploitation of data, recorded in the background while the user is performing daily tasks with photos, has great potential to generate information without additional effort for the users.
The first part of this work deals with the labeling of image region by means of gaze data for describing the depicted scenes in detail. Labeling takes place by assigning object names to specific photo regions. In total, three experiments were conducted for investigating the quality of these assignments in different contexts. In the first experiment, users decided whether a given object can be seen on a photo by pressing a button. In the second study, participants searched for specific photos in an image search application. In the third experiment, gaze data was collected from users playing a game with the task to classify photos regarding given categories. The results of the experiments showed that gaze-based region labeling outperforms baseline approaches in various contexts. In the second part, most important photos in a collection of photos are identified by means of visual attention for the creation of individual photo selections. Users freely viewed photos of a collection without any specific instruction on what to fixate, while their gaze paths were recorded. By comparing gaze-based and baseline photo selections to manually created selections, the worth of eye tracking data in the identification of important photos is shown. In the analysis of the data, the characteristics of gaze data has to be considered, for example, inaccurate and ambiguous data. The aggregation of gaze data, collected from several users, is one suggested approach for dealing with this kind of data.
The results of the performed experiments show the value of gaze data as source of information. It allows to benefit from human abilities where algorithms still have problems to perform satisfyingly.
German politicians have identified a need for greater citizen involvement in decision-making than in the past, as confirmed by a recent German parliamentarians study ("DEUPAS"). As in other forms of social interactions, the Internet provides significant potential to serve as the digital interface between citizens and decision-makers: in the recent past, dedicated electronic participation ("e-participation") platforms (e.g. dedicated websites) have been provided by politicians and governments in an attempt to gather citizens" feedback and comment on a particular issue or subject. Some of these have been successful, but a large proportion of them are grossly under-used " often only small numbers of citizens use them. Over the same time period, enthusiasm of Society for social networks has increased and is now commonplace. Many citizens use social networks such as Facebook and Twitter for all kinds of purposes, and in some cases to discuss political issues.
Social networks are therefore obviously attractive to politicians " from local government to federal agencies, politicians have integrated social media into their daily work. However, there is a significant challenge regarding the usefulness of social networks. The problem is the continuous increase in digital information: social networks contain vast amounts of information, and it is impossible for a human to manually filter the relevant information from the irrelevant (so-called "information overload"). Even using the search tools provided by social networks, it is still a huge task for a human to determine meanings and themes from the multitude of search results. New technologies and concepts have been proposed to provide summaries of masses of information through lexical analysis of social media messages, and therefore they promise an easy and quick overview of the information.
This thesis examines the relevance of these analyses" results, for the use in everyday political life, with the emphasis on the social networks Facebook and Twitter as data sources. Here we make use of the WeGov Toolbox and its analysis components that were developed during the EU project WeGov. The assessment has been performed in consultation with actual policy-makers from different levels of German government: policy-makers from the German Federal Parliament, the State Parliament North Rhine-Westphalia, the State Chancellery of the Saarland and the cities of Cologne and Kempten all took part in the study. Our method was to execute the analyses on data collected from Facebook and Twitter, and present the results to the policy-makers, who would then evaluate them using a mixture of qualitative methods.
The responses of the participants have provided us with some useful conclusions:
1) None of the participants believe that e-participation is possible in this way. But participants confirm that "citizen-friendliness" can be supported by this approach.
2) The most likely users for the summarisation tools are those who have experience with social networks, but are not "power users". The reason being is that "power users" already knew the relevant information provided by analysis tools. But without any experiences for social networks it is hard to interpret the analysis results the right way.
3) The evaluation has considered geographical aspects, and related this to e.g. a politician- constituency as a local area of social networks. Comparing the rural to the urban areas, it is shown that the amount of relevant political information in the rural areas is low. While the proportion of publicly available information in urban areas is relatively high, the proportion in the rural areas is much lower.
The findings that result from the engagement with policy-makers will be systematically surveyed and validated within this thesis.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
Mathematical Modelling of GIS Tailored GUI Design with the Application of Spatial Fuzzy Logic
(2014)
This PhD thesis is situated within the framework of the Research-Group Learning and Neurosciences (ReGLaN)-Health and Logistics project. The goal of this project is the optimisation of health service delivery in the rural areas of South Africa. Cooperation takes place between ReGLaN-Health and Logistics and the South African Council for Scientific and Industrial Research (CSIR) Meraka Institute, with Prof Dr Dr Marlien Herselman of Pretoria, South Africa, as the central contact person. This thesis deals with the mathematical modelling of Geographic Information System (GIS)-tailoredrnGraphical User Interface (GUI) design with the application of spatial fuzzy logic. This thesis considers the mathematical visualisation of risk and resource maps for epidemiological issues using GIS and adaptive GUI design for an Open Source (OS) application for digital devices. The intention ofrnthis thesis is to provide spatial decision support tailored to different user groups. In order for the GUI elements to be evaluated and initialised, empirical teaching-learning-research on dealing with geomedia and GUI elements was conducted.
Diese Bachelorarbeit befasst sich mit der Entwicklung und Implementierung einer Gesichtserkennenden Software, die in der Lage ist Personenströme zurnerkennen und zu protokollieren. Dabei wird, ausgehend von den speziellen Anforderungen der Bildverarbeitung die entstandene Softwarearchitektur und deren Implementation vorgestellt. Zusätzlich wird zur Implementation ein Webinterface entwickelt welches die Verwaltung der Daten vereinfachen soll. Abschließend werden weitere Verfahren der Gesichtserkennung vorgestellt und gegen das eingesetzte Verfahren verglichen. Zum Schluss wird die implementierte Software evaluiert.
Redaktionelle Korrektur betreffend die Erste Ordnung zur Änderung der Promotionsordnung des Fachbereichs 7: Natur- und Umweltwissenschaften der Universität Koblenz-Landau vom 19.08.2014
Promotionsordnung des Fachbereichs 2: Philologie / Kulturwissenschaften vom 06.10.2014
Zehnte Ordnung zur Änderung der Prüfungsordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang an der Universität Koblenz-Landau vom 14.10.2014
Vierte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Bachelorstudiengang Berufsbildende Schulen an der Universität Koblenz-Landau und der Hochschule Koblenz vom 14.10.2014
Neunte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulen plus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau vom 14.10.2014
Dritte Ordnung zur Änderung der Ordnung für die Prüfung im Masterstudiengang für das Lehramt an Berufsbildenden Schulen an der Universität Koblenz-Landau und der Hochschule Koblenz vom 14.10.2014
Achte Ordnung zur Änderung der Ordnung für die Prüfung im lehramtsbezogenen Zertifikatsstudiengang (Erweiterungsprüfung) an der Universität Koblenz-Landau vom 14.10.2014
Siebente Ordnung zur Änderung der Prüfungsordnung für die Prüfung im Zwei-Fach-Bachelorstudiengang an der Universität Koblenz-Landau vom 14.10.2014
In the recent years, Software Engineering research has shown the rise of interest in the empirical studies. Such studies are often based on empirical evidence derived from corpora - collections of software artifacts. While there are established forms of carrying out empirical research (experiments, case studies, surveys, etc.), the common task of preparing the underlying collection of software artifacts is typically addressed in ad hoc manner.
In this thesis, by means of a literature survey we show how frequently software engineering research employs software corpora and using a developed classification scheme we discuss their characteristics. Addressing the lack of methodology, we suggest a method of corpus (re-)engineering and apply it to an existing collection of Java projects.
We report two extensive empirical studies, where we perform a broad and diverse range of analyses on the language for privacy preferences (P3P) and on object-oriented application programming interfaces (APIs). In both cases, we are driven by the data at hand, by the corpus itself, discovering the actual usage of the languages.
Eine systematische Literaturstudie zu beaconless Algorithmen für drahtlose Ad-hoc- und Sensornetze
(2014)
Wireless sensor networks (WSN) are computer networks consisting of sensor nodes.In position-based protocols nodes broadcast messages containing their position information periodically. These messages are called beacons. The use of beacons however has downsides, which led to the emerging of beaconless algorithms. Despite their importance in the research area of computer networks and to the best of our knowledge, beaconless algorithms have not been systematically surveyed.
The aim of this work is a comprehensive, systematic review of beaconless algorithms since the turn of the millennium. Relevant articles are categorized based on their similarities and their differences are compared. Thus, this work serves as a reference to the current state of research of beaconless algorithms and as a basis for finding research gaps.
Community-Plattformen im Internet verwenden codebasierte Governance, um ihre hohe Anzahl an Nutzerbeiträgen zu verwalten. Dazu gehören alle Arten von Funktionalitäten, mit denen die Community Nutzerbeiträge in irgendeiner Form direkt oder indirekt beurteilen kann. Diese Arbeit erklärt zunächst die Bedeutung codebasierter Governance und der verschiedenen dafür nutzbaren Funktionalitäten. Anschließend werden die erfolgreichsten 50 Community-Plattformen auf codebasierte Governance untersucht. Das Ergebnis zeigt die Zusammenhänge zwischen dem Aufbau einer Plattform, der Beschaσffenheit der Nutzerbeiträge und der darauf ausübbaren codebasierten Governance auf.
Diese Bachelorarbeit behandelt die Zusammenführung der bereits vorliegenden Winkelrekonstruktions- und Simulationskomponente und erweitert diese mit Funktionen, um die Durchführung von systematischen Tests zu ermöglichen. Hierzu wird die Übergabe von Bildern aus der Simulationskomponente an die Winkelrekonstruktionskomponente ermöglicht. Des weiteren wird eine GUI zur Testlaufsteuerung und Parameterübergabe sowie eine Datenbankanbindung zur Speicherung der verwendeten Einstellungen und erzeugter Daten angebunden. Durch die Analyse der erzeugten Daten zeigt sich eine ausreichende durchschnittliche Präzision von 0.15° und eine maximale Abweichung der einzelnen Winkel von 0.6°. Der größte Gesamtfehler beläuft sich in den Testläufen auf 0.8°. Der Einfluss von fehlerhaften Parametern hat von variable zu Variable unterschiedliche Auswirkungen. So verstärkt ein Fehler in Höhe den Messfehler um ein vielfaches mehr, als ein Fehler in der Länge der Deichsel.
The increased networking of devices has established the usage of distributed applications as a common method in software development. Despite the demand of anonymity in using distributed applications, software frameworks still lack appropriate support in developing them. Building anonymous communicating applications therefore often results in an expensive individual approach. This work integrates an approach for anonymous communication using remote procedure calls into a software framework for building distributed applications. This also includes the design, development, and prototypical implementation of a binding for the MAppLab Remote Procedure Call Framework on the basis of the mPartAPI Framework. Furthermore the resulting prototype will be tested in an exemplary scenario.
The goal of this thesis is the development of methods for augmented image synthesis using 3D photo collections. 3D photo collections are representations of real scenes automatically generated from single photos and describe a scene as a set of images with known camera poses as well as a sparse point-based model of the scene geometry. The main goal is to perform a photo-realistic augmented image synthesis of real and virtual parts, where the real scene is provided as a 3D photo collection. Therefore, three main problems are addressed.
Since the photos may be represented in different device-specific RGB color spaces, a color characterization of the 3D photo collections is necessary to gain correct color information that is consistent with human perception. The proposed novel method automatically transforms all images into a common RGB color space and thereby simplifies color characterization of 3D photo collections.
As a main problem for augmented image synthesis, all environmental lighting has to be known in order to apply illumination to virtual parts that is consistent with the real portions shown in the photos. To solve this problem, two novel methods were developed to reconstruct the lighting from 3D photo collections.
In order to perform image synthesis for arbitrary views on the scene, an image-based approach was developed that generates new views in 3D photo collections making direct use of its point cloud. The novel method creates new views in real-time and allows free-navigation.
In conclusion, the proposed novel methods show that 3D photo collections are a useful representation for real scenes in Augmented Reality and they can be used to perform a realistic image synthesis of real and virtual portions.
Through the increasing availability of access to the web, more and more interactions between people take place in online social networks, such as Twitter or Facebook, or sites where opinions can be exchanged. At the same time, knowledge is made openly available for many people, such as by the biggest collaborative encyclopedia Wikipedia and diverse information in Internet forums and on websites. These two kinds of networks - social networks and knowledge networks - are highly dynamic in the sense that the links that contain the important information about the relationships between people or the relations between knowledge items are frequently updated or changed. These changes follow particular structural patterns and characteristics that are far less random than expected.
The goal of this thesis is to predict three characteristic link patterns for the two network types of interest: the addition of new links, the removal of existing links and the presence of latent negative links. First, we show that the prediction of link removal is indeed a new and challenging problem. Even if the sociological literature suggests that reasons for the formation and resolution of ties are often complementary, we show that the two respective prediction problems are not. In particular, we show that the dynamics of new links and unlinks lead to the four link states of growth, decay, stability and instability. For knowledge networks we show that the prediction of link changes greatly benefits from the usage of temporal information; the timestamp of link creation and deletion events improves the prediction of future link changes. For that, we present and evaluate four temporal models that resemble different exploitation strategies. Focusing on directed social networks, we conceptualize and evaluate sociological constructs that explain the formation and dissolution of relationships between users. Measures based on information about past relationships are extremely valuable for predicting the dissolution of social ties. Hence, consistent for knowledge networks and social networks, temporal information in a network greatly improves the prediction quality. Turning again to social networks, we show that negative relationship information such as distrust or enmity can be predicted from positive known relationships in the network. This is particularly interesting in networks where users cannot label their relationships to other users as negative. For this scenario we show how latent negative relationships can be predicted.
Siebte Ordnung zur Änderung der Prüfungsordnung für die Prüfung in den Masterstudiengängen für das Lehramt an Grundschulen, das Lehramt an Realschulenrnplus, das Lehramt an Förderschulen sowie das Lehramt an Gymnasien an der Universität Koblenz-Landau
Ordnung zur Änderung der Einschreibeordnung für die Universität Koblenz-Landau
Ordnung zur Änderung der Wahlordnung der Studierendenschaft der Universität Koblenz-Landau, Campus Landau
In the age of Web 2.0 the internet as a platform to provide services or sell goods gained more attention in companies. Especially for customer support customer forums can be a useful tool for companies. By providing customer forums, companies can reduce their support costs dramatically. Nevertheless, it is often difficult for companies to measure the success of customer forums. In the research literature the determinants of success of customer forums have seldom been studied. The purpose of this bachelor thesis is to fill this research gap by applying the model of Lin and Lee to measure the success of online-communities on customer forums. In addition, metrics for measuring the success of this model are discussed. The discussion of this topic leads to the conclusion that the model of Lin and Lee is mostly applicable for customer forums, and provides a useful approach to measuring suc-cess both in theory and in practice. This could be demonstrated by the example of the 1&1 customer forum. The metrics that were found in the theoretical part were quite relevant in practice. Nevertheless, future research should focus more on monetary indicators to also make success of customer forums financially assessable.
Meine Bachelorarbeit ist als Fortsetzung und Weiterentwicklung der Studienarbeit "Erstellung einer HTML 5-basierten Lernoberflache zur Unterstützung der Zielgruppe der AnfängerInnen für das Softwareprogramm CrypTool 2" von Liane Syre, eingereicht am 13.08.2013 an der Universität Koblenz-Landau, konzipiert. Die Inhalte ihrer Studienarbeit dienen somit als Grundlage für die hier vorliegende Bachelorarbeit.
Ich habe im Rahmen meiner Bachelorarbeit einen Prototyp eines teilweise automatisierten Lerntagebuchs entwickelt, welchen ich im Folgenden Vorstellen mochte. Außerdem stelle ich meine ebenfalls eigenständig konzipierte LearnCrypTo-Homepage in dieser Arbeit vor.
Nach einer Einleitung in die Thematik (Kapitel 2) folgt eine Literaturstudie zu Serious Games als Teilbereich des Media-based Learning (Kapitel 3), in welchem auch explizit auf die Führung eines Lerntagebuches und didaktische Konzepte eingegangen wird.
Es folgt eine Beschreibung wichtiger Aspekte bei der Erstellung einer Lernsoftware und gehe im Kontext der Serious Games noch mal auf die Spielerstellung ein (Kapitel 4).
Da meine Bachelorarbeit vor allem darauf ausgerichtet ist, CrypTool 2 AnfängerInnen nahe zu bringen, erläutere ich sodann die für benannte Zielgruppe wichtigsten Funktionen von CrypTool 2 (Kapitel 5).
Dann gehe ich naher auf Inhalt und Aufbau meiner eigens erstellten LearnCrypTo-Homepage ein (Kapitel 6).
Ich erläutere gegen Schluss meiner Arbeit ausgewählte technische Aspekte (Kapitel 7).
In einem abschließenden Fazit versuche ich, die Ergebnisse meiner Arbeit zu bewerten und wage einen kleinen Ausblick (Kapitel 8).
Im Verlaufe der Arbeit wird vermehrt mit einer hauptsachlich englischen Terminologie gearbeitet. Um Missverständnissen vorzubeugen werde ich die englischen Begriffe bei ihrer ersten Verwendung in meiner Arbeit ins Deutsche übersetzen und im Folgenden dann weiter mit der englischen Bezeichnung arbeiten.
Um Lesbarkeit zu fordern benutze ich in meiner Arbeit das generische Maskulinum.
This thesis presents a prototypical application for speech therapy as a therapeutical tool, simulating the articulation of German phonemes and the swallowing reflex. A special attention is given to a three-dimensional visualization of anatomical models of the pharyngolaryngeal region, which can be used in an interactive way. For examining the benefits of such an application in relation to conventional therapy mediums, the thesis considers iteratively the requirements of speech therapists.
In this thesis, the methods of a feasibility study are applied to analyze whether or not the foundation of an academic based startup focusing on IT-consulting is possible. For this purpose the concept of consulting, the demand for the offering of consulting services as well as the relevant market are analyzed. Furthermore, empirical research through face-to-face interviews with IT-companies located in the region of Koblenz is utilized in order to gain further insight about the feasibility of said business venture. The result of the research is to be presented in a concrete recommendation for further actions.