Filtern
Erscheinungsjahr
- 2018 (98) (entfernen)
Dokumenttyp
- Dissertation (35)
- Bachelorarbeit (30)
- Masterarbeit (18)
- Ausgabe (Heft) zu einer Zeitschrift (14)
- Konferenzveröffentlichung (1)
Schlagworte
- Vorlesungsverzeichnis (4)
- Bildverarbeitung (2)
- 1H-NMR Relaxometry (1)
- Aesthetics (1)
- Agoraphobie (1)
- Analysis of social platform (1)
- Astrophysik (1)
- Augmented Reality (1)
- Barrieren (1)
- Berufsausbildung (1)
Institut
- Institut für Computervisualistik (29)
- Institut für Wirtschafts- und Verwaltungsinformatik (9)
- Institute for Web Science and Technologies (9)
- Institut für Management (8)
- Zentrale Einrichtungen (8)
- Fachbereich 7 (7)
- Institut für Umweltwissenschaften (7)
- Fachbereich 4 (4)
- Fachbereich 6 (3)
- Fachbereich 8 (2)
- Institut für Informatik (2)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Arbeitsbereich Entwicklungspsychologie und Pädagogische Psychologie (1)
- Fachbereich 5 (1)
- Institut für Germanistik (1)
- Institut für Integrierte Naturwissenschaften (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Integrierte Naturwissenschaften, Abt. Chemie (1)
- Institut für Integrierte Naturwissenschaften, Abt. Physik (1)
- Institut für Kommunikationspsychologie und Medienpädagogik (1)
- Institut für Kulturwissenschaft (1)
- Institut für Pädagogik, Abteilung Pädagogik (1)
- Institut für Sonderpädagogik (1)
- Institut für Sozialwissenschaften (1)
- Institut für Sportwissenschaft (1)
- Institut für naturwissenschaftliche Bildung (1)
- Universitätsbibliothek Koblenz-Landau (1)
Wikipedia is the biggest, free online encyclopaedia that can be expanded by any-one. For the users, who create content on a specific Wikipedia language edition, a social network exists. In this social network users are categorised into different roles. These are normal users, administrators and functional bots. Within the networks, a user can post reviews, suggestions or send simple messages to the "talk page" of another user. Each language in the Wikipedia domain has this type of social network.
In this thesis characteristics of the three different roles are analysed in order to learn how they function in one language network of Wikipedia and apply them to another Wikipedia network to identify bots. Timestamps from created posts are analysed to reveal noticeable characteristics referring to continuous messages, message rates and irregular behaviour of a user are discovered. Through this process we show that there exist differences between the roles for the mentioned characteristics.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
The purpose of this thesis is to explore the sentiment distributions of Wikipedia concepts.
We analyse the sentiment of the entire English Wikipedia corpus, which includes 5,669,867 articles and 1,906,375 talks, by using a lexicon-based method with four different lexicons.
Also, we explore the sentiment distributions from a time perspective using the sentiment scores obtained from our selected corpus. The results obtained have been compared not only between articles and talks but also among four lexicons: OL, MPQA, LIWC, and ANEW.
Our findings show that among the four lexicons, MPQA has the highest sensitivity and ANEW has the lowest sensitivity to emotional expressions. Wikipedia articles show more sentiments than talks according to OL, MPQA, and LIWC, whereas Wikipedia talks show more sentiments than articles according to ANEW. Besides, the sentiment has a trend regarding time series, and each lexicon has its own bias regarding text describing different things.
Moreover, our research provides three interactive widgets for visualising sentiment distributions for Wikipedia concepts regarding the time and geolocation attributes of concepts.
This thesis addresses the automated identification and localization of a time-varying number of objects in a stream of sensor data. The problem is challenging due to its combinatorial nature: If the number of objects is unknown, the number of possible object trajectories grows exponentially with the number of observations. Random finite sets are a relatively new theory that has been developed to derive at principled and efficient approximations. It is based around set-valued random variables that contain an unknown number of elements which appear in arbitrary order and are themselves random. While extensively studied in theory, random finite sets have not yet become a leading paradigm in practical computer vision and robotics applications. This thesis explores random finite sets in visual tracking applications. The first method developed in this thesis combines set-valued recursive filtering with global optimization. The problem is approached in a min-cost flow network formulation, which has become a standard inference framework for multiple object tracking due to its efficiency and optimality. A main limitation of this formulation is a restriction to unary and pairwise cost terms. This circumstance makes integration of higher-order motion models challenging. The method developed in this thesis approaches this limitation by application of a Probability Hypothesis Density filter. The Probability Hypothesis Density filter was the first practically implemented state estimator based on random finite sets. It circumvents the combinatorial nature of data association itself by propagation of an object density measure that can be computed efficiently, without maintaining explicit trajectory hypotheses. In this work, the filter recursion is used to augment measurements with an additional hidden kinematic state to be used for construction of more informed flow network cost terms, e.g., based on linear motion models. The method is evaluated on public benchmarks where a considerate improvement is achieved compared to network flow formulations that are based on static features alone, such as distance between detections and appearance similarity. A second part of this thesis focuses on the related task of detecting and tracking a single robot operator in crowded environments. Different from the conventional multiple object tracking scenario, the tracked individual can leave the scene and later reappear after a longer period of absence. Therefore, a re-identification component is required that picks up the track on reentrance. Based on random finite sets, the Bernoulli filter is an optimal Bayes filter that provides a natural representation for this type of problem. In this work, it is shown how the Bernoulli filter can be combined with a Probability Hypothesis Density filter to track operator and non-operators simultaneously. The method is evaluated on a publicly available multiple object tracking dataset as well as on custom sequences that are specific to the targeted application. Experiments show reliable tracking in crowded scenes and robust re-identification after long term occlusion. Finally, a third part of this thesis focuses on appearance modeling as an essential aspect of any method that is applied to visual object tracking scenarios. Therefore, a feature representation that is robust to pose variations and changing lighting conditions is learned offline, before the actual tracking application. This thesis proposes a joint classification and metric learning objective where a deep convolutional neural network is trained to identify the individuals in the training set. At test time, the final classification layer can be stripped from the network and appearance similarity can be queried using cosine distance in representation space. This framework represents an alternative to direct metric learning objectives that have required sophisticated pair or triplet sampling strategies in the past. The method is evaluated on two large scale person re-identification datasets where competitive results are achieved overall. In particular, the proposed method better generalizes to the test set compared to a network trained with the well-established triplet loss.
In dieser Arbeit wird ein System zur Erzeugung und Darstellung stereoskopischen Video-Panoramen vorgestellt. Neben der theoretischen Grundlagen werden der Aufbau und die Funktionsweise dieses Systems erläutert.
Dazu werden spezielle Kameras verwendet, die Panoramen aufnehmen
können und zur Wiedergabe synchronisiert werden. Anschließend wird ein Renderer implementiert, welcher die Panoramen mithilfe einer VirtualReality Brille stereoskopisch darstellen kann. Dafür werden separate Aufnahmen für die beiden Augen gemacht und getrennt wiedergegeben. Zum Abschluss wird das entstandene Video-Panorama mit einem Panorama eines schon bestehenden Systems verglichen.
Das Internet der Dinge (IoT) ist ein Konzept, bestehend aus vernetzten physischen Objekten, welche in die virtuelle Welt integriert werden um aktive Teilnehmer von Geschäfts- und Alltagsprozessen zu werden (Uckelmann, Harrison and Michahelles, 2011; Shrouf, Ordieres and Miragliotta, 2014). Es wird erwartet, dass dieses Konzept einen großen Einfluss auf Unternehmen haben wird (Council, Nic and Intelligence, 2008). Geschäftsmodelle kleiner und mittelständischer Unternehmen (KMU) sind bedroht, sollten sie den sich abzeichnenden Trend nutzen (Sommer, 2015). Daher ist das Ziel dieser Arbeit, eine exemplarische Implementierung von vernetzten Geräten in einem kleinen Unternehmen um seine Vorteile darzustellen.
Diese Arbeit verwendet Design Science Research (DSR) um einen Prototyp zu entwickeln, der auf dem Anwendungsfall einer Holzwerkstatt aufbaut. Der Prototyp besteht aus einem physischen Sensor und einer Webapplikation, welche von dem kleinen Unternehmen zur Verbesserung seiner Prozesse genutzt werden kann. Die Arbeit dokumentiert den iterativen Entwicklungsprozess der Prototypen von Grund auf zu nutzbarer Hard- und Software.
Der Hauptbeitrag dieser Arbeit ist die beispielhafte Anwendung und Nutzung von IoT in einem kleinen Unternehmen.
Mit der Microsoft Kinect waren die ersten Aufnahmen von synchronisierten Farb- und Tiefendaten (RGB-D) möglich, ohne hohe finanzielle Mittel aufwenden zu müssen und neue Möglichkeiten der Forschung eröffneten sich. Mit fortschreitender Technik sind auch mobile Endgeräte in der Lage, immer mehr zu leisten. Lenovo und Asus bieten die ersten kommerziell erwerblichen Geräte mit RGB D-Wahrnehmung an. Mit integrierten Funktionen der Lokalisierung, Umgebungserkennung und Tiefenwahrnehmung durch die Plattform Tango von Google gibt es bereits die ersten Tests in verschiedenen Bereichen des Rechnersehens z.B. Mapping. In dieser Arbeit wird betrachtet, inwiefern sich ein Tango Gerät für die Objekterkennung eignet. Aus den Ausgangsdaten des Tango Geräts werden RGB D-Daten extrahiert und für die Objekterkennung verarbeitet. Es wird ein Überblick über den aktuellen Stand der Forschung und gewisse Grundlagen bezüglich der Tango Plattform gegeben. Dabei werden existierende Ansätze und Methoden für eine Objekterkennung auf mobilen Endgeräten untersucht. Die Implementation der Erkennung wird anhand einer selbst erstellten Datenbank von RGB-D Bildern gelernt und getestet. Neben der Vorstellung der Ergebnisse werden Verbesserungen und Erweiterungen für die Erkennung vorgeschlagen.
Die Digitalisierung und die mediale Weiterentwicklung sind Kernprozesse des aktuellen digitalen Zeitalters. Damit auch Unternehmen vom technischen Fortschritt profitieren können, müssen jeweilige Kompetenzen vorhanden sein oder erworben werden. Unternehmen stehen hier also vor der Aufgabe mit der Masse an Neuheiten und Möglichkeiten nicht überfordert zu sein und diese im besten Fall für die eigene Leistungssteigerung nutzen zu können.
Da kleine und mittelständische Unternehmen 99 % aller Unternehmen in Deutschland darstellen und nicht bekannt ist, wie vor allem die sehr kleinen Unternehmen und ihre Mitarbeiter mit o.g. Entwicklung mitziehen können, wird genau diese Thematik in der vorliegenden Arbeit erforscht. Die Forschungsfrage besteht somit aus zwei Teilforschungsfragen. Zum einen: „Wird sich in den Kleinstunternehmen um die Kompetenzförderung der Mitarbeiter gekümmert?“ und zum anderen: „Wo sind hier die Chancen und Herausforderungen für Unternehmen dieser Größe?“
Um die Forschungsfrage zu beantworten, wurde sich einer qualitativen Forschungsmethode bedient, dem leitfadengestützten Interview. Die interviewten Unternehmen bewegten sich alle im Medien- und IT-Bereich. Somit konnte sich durch die aufgezeichneten und transkribierten Daten ein realer Einblick in die aktuelle Situation in Kleinstunternehmen verschafft werden.
Die Antworten der Interviews zeigten, dass Unternehmen mit sehr geringen Mitarbeiteranzahlen, von ihren Mitarbeitern abhängiger sind als andere. Also ist das Engagement der Mitarbeiter entscheidend für den Erfolg des Ganzen. Dieses zu fördern und die Mitarbeiterzufriedenheit zu gewährleisten ist die Aufgabe der Unternehmensleitung.
Unternehmen, in denen die Förderung der Mitarbeiter mehr Beachtung erfährt, bilden also die perfekte Anlaufstelle für Berufseinsteiger, die sich und ihren gesamten Erfahrungshorizont noch weiterentwickeln müssen und/oder wollen.
This Master Thesis is an exploratory research to determine whether it is feasible to construct a subjectivity lexicon using Wikipedia. The key hypothesis is that that all quotes in Wikipedia are subjective and all regular text are objective. The degree of subjectivity of a word, also known as ''Quote Score'' is determined based on the ratio of word frequency in quotations to its frequency outside quotations. The proportion of words in the English Wikipedia which are within quotations is found to be much smaller as compared to those which are not in quotes, resulting in a right-skewed distribution and low mean value of Quote Scores.
The methodology used to generate the subjectivity lexicon from text corpus in English Wikipedia is designed in such a way that it can be scaled and reused to produce similar subjectivity lexica of other languages. This is achieved by abstaining from domain and language-specific methods, apart from using only readily-available English dictionary packages to detect and exclude stopwords and non-English words in the Wikipedia text corpus.
The subjectivity lexicon generated from English Wikipedia is compared against other lexica; namely MPQA and SentiWordNet. It is found that words which are strongly subjective tend to have high Quote Scores in the subjectivity lexicon generated from English Wikipedia. There is a large observable difference between distribution of Quote Scores for words classified as strongly subjective versus distribution of Quote Scores for words classified as weakly subjective and objective. However, weakly subjective and objective words cannot be differentiated clearly based on Quote Score. In addition to that, a questionnaire is commissioned as an exploratory approach to investigate whether subjectivity lexicon generated from Wikipedia could be used to extend the coverage of words of existing lexica.
Fresh water resources like rivers and reservoirs are exposed to a drastically changing world. In order to safeguard these lentic ecosystems, they need stronger protection in times of global change and population growth. In the last years, the exploitation pressure on drinking water reservoirs has increased steadily worldwide. Besides securing the demands of safe drinking water supply, international laws especially in Europe (EU Water Framework Directive) stipulate to minimize the impact of dams on downstream rivers. In this study we investigate the potential of a smart withdrawal strategy at Grosse Dhuenn Reservoir to improve the temperature and discharge regime downstream without jeopardizing drinking water production. Our aim is to improve the existing withdrawal strategy for operating the reservoir in a sustainable way in terms of water quality and quantity. First, we set-up and calibrated a 1D numerical model for Grosse Dhuenn Reservoir with the open-source community model “General Lake Model” (GLM) together with its water quality module “Aquatic Ecodynamics” library (AED2). The reservoir model reproduced water temperatures and hypolimnetic dissolved oxygen concentrations accurately over a 5 year period. Second, we extended the model source code with a selective withdrawal functionality (adaptive offtake) and added operational rules for a realistic reservoir management. Now the model is able to autonomously determine the best withdrawal height according to the temperature and flow requirements of the downstream river and the raw water quality objectives. Criteria for the determination of the withdrawal regime are selective withdrawal, development of stratification and oxygen content in the deep hypolimnion. This functionality is not available in current reservoir models, where withdrawal heights are generally provided a priori to the model and kept fixed during the simulation. Third, we ran scenario simulations identifying an improved reservoir withdrawal strategy to balance the demands for downstream river and raw water supply. Therefore we aimed at finding an optimal parallel withdrawal ratio between cold hypolimnetic water and warm epilimnetic or metalimnetic water in order to provide a pre-defined temperature in the downstream river. The reservoir model and the proposed withdrawal strategy provide a simple and efficient tool to optimize reservoir management in a multi-objective view for mastering future reservoir management challenges.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
The content aggregator platform Reddit has established itself as one of the most popular websites in the world. However, scientific research on Reddit is hindered as Reddit allows (and even encourages) user anonymity, i.e., user profiles do not contain personal information such as the gender. Inferring the gender of users in large-scale could enable the analysis of gender-specific areas of interest, reactions to events, and behavioral patterns. In this direction, this thesis suggests a machine learning approach of estimating the gender of Reddit users. By exploiting specific conventions in parts of the website, we obtain a ground truth for more than 190 million comments of labeled users. This data is then used to train machine learning classifiers to use them to gain insights about the gender balance of particular subreddits and the platform in general. By comparing a variety of different approaches for classification algorithm, we find that character-level convolutional neural network achieves performance with an 82.3% F1 score on a task of predicting a gender of a user based on his/her comments. The score surpasses 85% mark for frequent users with more than 50 comments. Furthermore, we discover that female users are less active on Reddit platform, they write fewer comments and post in fewer subreddits on average, when compared to male users.
The term “Software Chrestomaty” is defined as a collection of software systems meant to be useful in learning about or gaining insight into software languages, software technologies, software concepts, programming, and software engineering. 101companies software chrestomathy is a community project with the attributes of a Research 2.0 infrastructure for various stakeholders in software languages and technology communities. The core of 101companies combines a semantic wiki and confederated open source repositories. We designed and developed an integrated ontology-based knowledge base about software languages and technologies. The knowledge is created by the community of contributors and supported with a running example and structured documentation. The complete ecosystem is exposed by using Linked Data principles and equipped with the additional metadata about individual artifacts. Within the context of software chrestomathy we explored a new type of software architecture – linguistic architecture that is targeted on the language and technology relationships within a software product and based on the megamodels. Our approach to documentation of the software systems is highly structured and makes use of the concepts of the newly developed megamodeling language MegaL. We “connect” an emerging ontology with the megamodeling artifacts to raise the cognitive value of the linguistic architecture.
Smart Building Solutions - Generischer Ansatz für die Identifikation von Raumsteuerungsfunktionen
(2018)
40 Prozent der Wohnungs- und Immobilienunternehmen planen, im Rahmen von Neubau und Modernisierung intelligente Steuerungssysteme in ihre Liegenschaften zu integrieren. Gleichzeitig drängen Internetunternehmen mit ihren Geräten in Häuser und Wohnungen und versprechen intelligente Dienste für die Nutzer. Für beide Arten der neuen Technologien wird der Begriff des „Smart Home“ angewendet. Dabei hat die erste Gruppe der Systeme Ihren Ursprung im Bereich der „Gebäudeautomation“, die zweite Gruppe entwickelt sich aus dem Konzept des „Internet of Things“.
Um zu ergründen, was die Unterschiede sind und welche gemeinsamen Grundlagen existieren, werden die Bereiche der Gebäudeautomation und das Internet of Things als Systeme analysiert und einander gegenübergestellt.
Zentraler Beitrag der Arbeit ist die Erkenntnis, dass beide Domänen auf ähnlichen Konzepten aufbauen und eine Integration möglich ist, ohne die Integrität der Systeme selbst zu beeinträchtigen. Zudem liefert die Arbeit einen Ansatz dafür, wie die Planung von Gebäudesteuerungssystemen unter Einbeziehung des Internet of Things gestaltet werden kann.
Die folgende Arbeit beschreibt die prototypische Konzeption und Entwicklung des Stat-Raising Spiels "Adventurer's Guild" mithilfe der Spielengine Ren'Py. Das Spiel soll eine durch Spielentscheidungen und Planung von Aktivitäten beeinflussbare Narrative haben und Spaß machen sowie optisch ansprechend sein.
Nach einem Überblick über das "Stat-Raising" als Genre sollen die existierenden Spiele "Dandelion - Wishes Brought to You", "Pastry Lovers", "Long Live the Queen" und "Magical Diary" analysiert werden, um anhand dessen die Schwächen und Stärken der verschiedenen Umsetzungen herauszufiltern.
Die daraus gewonnenen Erkenntnisse werden für die anschließende Konzeption eines neuen Stat-Raising Spiels genutzt.
Die Spielmechaniken und die getroffenen Designentscheidungen des resultierenden Spiels werden anschließend mit Screenshots gezeigt und ausführlich erklärt.
In einer finalen Bewertung wird das Spiel hinsichtlich der Aufgabenstellung untersucht. Im Ausblick werden weitere Ausbau- und Verbesserungsmöglichkeiten des Spiels aufgezeigt.
Social Entrepreneurship ist eine Form des Unternehmertums, die einen sozialen Auftrag mit einem wettbewerbsfähigen Leistungsversprechen verbindet. Insbesondere fördert Social Entrepreneurship eine gerechtere Gesellschaft, indem es soziale Fragen anspricht und versucht, eine nachhaltige Wirkung durch eine soziale Mission und nicht durch reine Gewinnmaximierung zu erzielen. Das Thema Social Entrepreneurship hat sich auf viele verschiedene Forschungsrichtungen ausgeweitet. Der Fokus darauf, zu verstehen, wie und warum Unternehmer denken und handeln, bleibt eine wichtige Rechtfertigung für die zukünftige Forschung. Dennoch steckt die theoretische Auseinandersetzung mit diesem Phänomen noch in den Kinderschuhen. Sociale Entrepreneurship-Forschung ist nach wie vor weitgehend Phänomen getrieben. Insbesondere die Forschung zur sozialunternehmerischen Absicht befindet sich in einem frühen Stadium und es fehlt an quantitativer Forschung. Daher wird in dieser Arbeit vorgeschlagen, diese Notwendigkeit zu adressieren. Damit verfolgt die Dissertation zwei Ziele: (1) ein Modell für soziale unternehmerische Intentionen im Allgemeinen zu entwickeln und (2) das Modell durch eine empirische Studie zu testen. Auf der Grundlage dieser Ziele, sind die beiden leitenden Forschungsfragen: (1) Welche Faktoren beeinflussen die Absicht einer Person ein Social Entrepreneur zu werden? (2) Welche Beziehungen bestehen zwischen diesen Faktoren?
Um diese beiden Forschungsfragen zu beantworten, erscheint ein Forschungsdesign zielführend, das eine Kombination aus Literaturrecherche und empirischer Studie darstellt. Die Literaturrecherche basiert auf einem umfassenden Angebot an Büchern, Artikeln und Forschungsarbeiten, die in führenden akademischen Zeitschriften und Konferenzberichten in verschiedenen Disziplinen wie Entrepreneurship, Social Entrepreneurship Education, Management, Sozialpsychologie und Sozialökonomie veröffentlicht wurden. Die empirische Studie umfasst eine Befragung von 600 Studierenden im letzten Studienjahr an vier Universitäten in drei Regionen Vietnams: Hanoi, Da Nang und Ho Chi Minh. Die Daten werden mit SPSS-AMOS Version 24 unter Verwendung von Screening-Daten, Maßstabsentwicklung, explorativer und konfirmativer Faktorenanalyse analysiert. Die Dissertation findet heraus, dass Entrepreneurship Experience/Extra-curricular Activity, Role Model, Social Entrepreneurial Self-Efficacy und Social Entrepreneurial Outcome Expectation sich direkt und positiv auf die Absicht der vietnamesischen Studierenden auswirken, Social Entrepreneurs zu sein. Entrepreneurship Education beeinflusst auch die Social Entrepreneurial Intention, aber nicht direkt, sondern indirekt über Social Entrepreneurial Self-Efficacy und Social Entrepreneurial Outcome Expectation. Ebenso hat Perceived Support keinen direkten Bezug zu Social Entrepreneurial Intention, zeigt aber eine indirekte Verbindung über den Mediator Social Entrepreneurial Outcome Expectation. Darüber hinaus bringt die Dissertation neue Einblicke in die Social Entrepreneurship-Literatur und liefert wichtige Implikationen für die Praxis. Einschränkungen und zukünftige Richtungen sind auch in der Dissertation enthalten.
Das Ziel dieser Bachelorarbeit ist es, die diskrete Fouriertransformation, die diskrete Kosinustransformation und die Hadamard-Walsh Transformation im Kontext der Bildverarbeitung zu vermitteln und diese unter ausgewählten Gesichtspunkten zu vergleichen. Hierfür soll allgemein das Wissen für den aus der linearen Algebra stammenden Begriff der Transformation gefördert werden und auf die Bildverarbeitung übertragen werden. Anschließend wird das Verständnis für die Fouriertransformation sukzessive aufgebaut und mit den beiden weiteren Transformationen verknüpft. Abschließend werden die Transformationen verglichen und ihr Nutzen innerhalb der Bildverarbeitung erläutert.
Diese Arbeit verbindet die Geschäftstätigkeit von Winzern im Weinbau mit einer innovativen technologischen Anwendung des Internet of Things. Die Arbeit des Winzers kann dadurch unterstützt und bereichert werden – bis hin zu einer bisher nicht möglichen Bewirtschaftungsoptimierung, insbesondere bei einer Überwachung einzelner Lagen bis hin zum einzelnen Rebstock. Exemplarisch werden Temperatur-, Luftfeuchtigkeit- und Bodenfeuchtigkeit-Daten gemessen, übertragen, gespeichert und bereitgestellt. Durch ein modulares Design des Systems können heute verfügbare Sensoren und gleichartige Niedervolt-Sensoren, die künftig entwickelt werden, sofort eingesetzt werden.
Durch IoT-Geräte im Weinberg erhält der Winzer eine neue Qualität der Genauigkeit der Vorhersage auf Basis aktueller Zustandsdaten seines Weinbergs. Zusätzlich kann er bei unvorhergesehenen Wetterbedingungen sofort eingreifen. Die sofortige Nutzbarkeit der Daten wird durch eine Cloud Infrastruktur möglich gemacht. Dabei wird eine offene Service-Infrastruktur genutzt. Im Gegensatz zu anderen bisher veröffentlichten kommerziellen Ansätzen ist dabei die beschriebene Lösung quelloffen.
Als eigenständiger Bestandteil der Arbeit wurde ein physikalischer Prototyp zur Messung relevanter Parameter im Weinberg neu entworfen und bis zur Erfüllung der gesetzten Spezifikationen entwickelt. Die skizzierten Merkmale und Anforderungen an eine funktionierende Datensammlung und ein autonom übertragendes IoT-Gerät wurden entwickelt, beschrieben und die Erfüllung durch das Prototypgerät demonstriert. Durch Literaturrecherche und unterstützende, orientierende Interviews von Winzern wurden die Theorie und die praktische Anwendung synchronisiert und qualifiziert.
Für die Entwicklung des Prototyps wurden die allgemeinen Prinzipien der Entwicklung eines elektronischen Geräts befolgt, insbesondere die Entwicklungsregeln von Design Science Research und die Prinzipien des Quality Function Deployment. Als ein Merkmal des Prototyps wurden einige Prinzipien wie die Wiederverwendung von bewährten Konstruktionen und die Materialpreise der Bausteine des Prototypen wurden ebenfalls in Betracht gezogen (z. B. Gehäuse; Arduino; PCB). Teilezahl-Reduktionsprinzipien, Dekomplexierung und vereinfachte Montage, Prüfung und Vor-Ort-Service wurden in den Entwicklungsprozess durch den modularen Aufbau der funktionellen Weinberg- Gerätekomponenten integriert, wie es der Ansatz des innovativen Schaltschrankbau- System Modular-3 beschreibt.
Das Software-Architekturkonzept basiert auf einer dreischichtigen Architektur inklusive der TTN-Infrastruktur. Das Frontend ist als Rich-Web-Client realisiert, als ein WordPress- Plugin. WordPress wurde aufgrund der weiten Verbreitung über das gesamte Internet und der Einfachheit in der Bedienung ausgewählt, was eine schnelle und einfache Benutzereinweisung ermöglicht. Relevante Qualitätsprobleme wurden im Hinblick auf exemplarische Funktionalität, Erweiterbarkeit, Erfüllung von Anforderungen, Verwendbarkeit und Haltbarkeit des Gerätes und der Software getestet und diskutiert.
Der Prototyp wurde mit Erfolg im Labor und im Einsatzgebiet unter verschiedenen Bedingungen charakterisiert und getestet, um eine Messung und Analyse der Erfüllung aller Anforderungen durch die geplante und realisierte elektronische Konstruktion und Anordnung des Prototypen, zu ermöglichen.
Die entwickelte Lösung kann als Grundlage für eine zukünftige Anwendung und Entwicklung in diesem speziellen Anwendungsfall und ähnlichen Technologien dienen. Ein Ausblick möglicher zukünftiger Arbeiten und Anwendungen schließt diese Arbeit ab.
Maßnahmen der Führungskräfteentwicklung verfolgen das Ziel den Führungsnachwuchs des Unternehmens zu bilden und für einen reibungslosen Einstieg in die Füh-rungsaufgabe zu sorgen. In der Literatur gibt es zahlreiche Theorien und Modelle zu Führung und deren Entwicklung, doch offen bleibt meist, wie es um den praktischen Einsatz und die Effektivität steht. Das Ziel dieser Arbeit ist die Identifikation wesentlicher Bestandteile der Führungskräfteentwicklung, die effektiv Einfluss auf (Nachwuchs-)Führungskräfte nehmen. Drei Studien beschäftigen sich jeweils mit unter-schiedlichen Schwerpunkten mit der Gestaltung und Wirksamkeit von modularen Programmen der Führungskräfteentwicklung. Zur Beschreibung der Gestaltung wurde eine Expertenbefragung unter Verantwortlichen für Führungskräfteentwicklung in 4 Großunternehmen durchgeführt. Zur Prüfung der Wirksamkeit wurden zwei Prädiktoren erfolgreichen Führens, die praktische Führungsintelligenz und die Führungswirksamkeitserwartung (FWE), in zwei repräsentativen modularen Programmen gemessen. Dafür wurden zwei quasiexperimentelle Designs mit Prätest-Posttest durchgeführt: ein Design mit zusätzlicher Kontrollgruppe (Nexp = 14, Nkontr = 12), ein Design mit zusätzlicher Fremdeinschätzung (N = 11 bis N =57 je nach Messzeitpunkt und beteiligten Variablen). Die praktische Führungsintelligenz wurde anhand eines für die Untersuchung entwickelten Situational Judgment Tests (SJTs) gemessen. Neben der FWE (in Anlehnung an die Skala zur Erfassung der beruflichen Selbstwirksamkeitserwartung, BSW-Skala) wurden weitere Konstrukte wie Selbstregulation (Locomotion-Assessment-Fragebogen, L-A-F), Optimismus (Skala Optimismus-Pessimismus-2, SOP2) Selbstmanagement (Fragebogens zur Erfassung von Ressourcen und Selbstmanagementfähigkeiten, FERUS) erfasst, sowie explorativ entwicklungsförderliche Merkmale erhoben. Entsprechend der Annahme verdichten sich die Ergebnisse auf drei Merkmale wirksamer Trainingsgestaltung: Erfahrungssammlung, Feedback, Selbstreflexion. Es konnte nachgewiesen werden, dass Programme mit hohem erfahrungsorientiertem Trainingsanteil, die Erfolgserlebnisse und Modelllernen fördern sowie persönliche Gespräche und Feedback beinhalten, die FWE (ŋ2 = .24, ŋ2 = .50) und die praktische Führungsintelligenz (ŋ2 = .54). signifikant (p<.05) steigern. Deutlich wurde auch der enge Zusammenhang zwischen Merkmalen der Person (wie Ausprägung der FWE oder Selbstregulationsfähigkeiten) und der Wirksamkeit der Programme. Aus den Ergebnissen werden Empfehlungen zur praktischen Umsetzung in der Führungskräfteentwicklung abgeleitet und Anregungen für zukünftige Forschung diskutiert.
Ästuare sind charakterisiert durch einen longitudinalen Salinitätsgradienten. Der Salzgehalt ist einer der wichtigsten Umweltparameter, der die Verteilung der Arten bestimmt. Heute werden Grenzen von Salinitätszonen vor allem mit Hilfe des Venedig-Systems und durch eine von Bulger et al. (1993) entwickelte Methode festgelegt. Beide Systeme wurden in homoio¬halinen Ge¬wäs¬sern entwickelt und die Einteilung in Zonen erfolgt anhand der Verteilung von Arten in Abhängigkeit vom mittleren Salzgehalt. Sie werden jedoch auch regelmäßig in poikilohalinen Systemen angewendet. Ich habe, basierend auf Langzeitdaten von Salinität und Makrozoobenthos (MZB), untersucht, ob die beiden Methoden im poikilohalinen Elbeästuar (Deutschland) anwendbar sind. Meine Ergebnisse zeigten, dass die Variabilität der Salinität und nicht die mittlere Salinität für die Verteilung der Arten in den mittleren Bereichen des Ästuars bestimmend ist. Folglich ist die Anwendung von keinem der beiden getesteten Verfahren in poikilohalinen Gewässern sinnvoll. Ich empfehle die Anwendung von Clusteranalyseverfahren zur Festlegung signifikant unterschiedlicher Salinitätszonen in poikilohalinen Systemen.
In vielen Ästuaren bildet sich eine Zone maximaler Trübung (ZmT), in der suspendiertes Material durch Zirkulationsprozesse akkumuliert. Im Elbeästuar ist diese Zone deckungsgleich mit der Zone höchster Salinitätsvariabilität und weist zudem den höchsten organischen Anteil im Sediment sowie hohe Sedimentationsraten und organische Belastungen auf. Die Stress-Gradienten-Hypothese besagt, dass unter starkem äußerem Druck wie diesem, Populationen oft unter der Kapazitätsgrenze bleiben und Konkurrenz nur von geringer Bedeutung ist. Ich habe mittels stabiler Isotopenanalyse getestet, ob Nahrungskonkurrenz in der ZmT des Elbeästuars für die häufigsten Makroinvertebraten relevant ist. Innerhalb eines Ernährungstyps zeigten die artspezifischen Isotopennischen keine oder nur eine geringe Überlappung. Folglich ist Konkurrenz um Nahrung in der ZmT nur von untergeordneter Bedeutung. Ursachen für getrennte Isotopennischen waren vor allem bedingt durch Unterschiede in Habitat (Korngröße) und Migrationsverhalten der Makroinvertebraten.
Ästuare gehören heute auf Grund anthropogener Einflüsse zu den am stärksten gefährdeten Gewässern. Das Ausmaß der Veränderungen in deren Artengemeinschaften während des letzten Jahrhunderts ist jedoch weitgehend unbekannt. Ich habe anhand historischer und aktueller Daten (1889, 1985, 1986, 2006) taxonomische und funktionale Veränderungen des MZB im Elbeästuar untersucht. Taxonomische Unterschiede zwischen den Untersuchungsjahren waren vor allem auf das Verschwinden von Arten und Auftreten anderer Arten (turnover) zurückzuführen. Funktionale Unterschiede entstanden hauptsächlich dadurch, dass Arten mit bestimmten Traits (Morphologie, Reproduktion, Entwicklung, Ernährung, Habitat) verschwanden, ohne dass diese Arten von anderen Arten mit gleichen Traits ersetzt wurden (nestedness). Artenzahl und funktioneller Reichtum waren 1985 und 1986 am niedrigsten. In den Jahren 1889 und 2006 waren sie am höchsten und nahezu gleich. Dies impliziert, dass die vom MZB im Ästuar von 1889 bereitgestellten Ökosystemfunktionen im Jahr 2006, jedoch unter veränderter taxonomischer Zusammensetzung, wieder vorhanden waren. Meine Ergebnisse verdeutlichen die hohe Relevanz von funktionaler Redundanz und funktionalem Reichtum für die Resilienz und Stabilität von Ökosystemen.