Filtern
Erscheinungsjahr
- 2016 (8) (entfernen)
Dokumenttyp
- Masterarbeit (8) (entfernen)
Sprache
- Englisch (8) (entfernen)
Volltext vorhanden
- ja (8) (entfernen)
Schlagworte
- Articles for Deletion (1)
- Function Words (1)
- I-messages (1)
- IBM Bluemix (1)
- Robust Principal Component Analysis (1)
- Statistical Shape Model (1)
- Wikipedia (1)
- You-messages (1)
- internet of things (1)
- iot development platforms (1)
- virtual reality (1)
Statistical Shape Models (SSMs) are one of the most successful tools in 3Dimage analysis and especially medical image segmentation. By modeling the variability of a population of training shapes, the statistical information inherent in such data are used for automatic interpretation of new images. However, building a high-quality SSM requires manually generated ground truth data from clinical experts. Unfortunately, the acquisition of such data is a time-consuming, error-prone and subjective process. Due to this effort, the majority of SSMs is often based on a limited set of this ground truth training data, which makes the models less statistically meaningful. On the other hand, image data itself is abundant in clinics from daily routine. In this work, methods for automatically constructing a reliable SSM without the need of manual image interpretation from experts are proposed. Thus, the training data is assumed to be the result of any segmentation algorithm or may originate from other sources, e.g. non-expert manual delineations. Depending on the algorithm, the output segmentations will contain errors to a higher or lower degree. In order to account for these errors, areas of low probability of being a boundary should be excluded from the training of the SSM. Therefore, the probabilities are estimated with the help of image-based approaches. By including many shape variations, the corrupted parts can be statistically reconstructed. Two approaches for reconstruction are proposed - an Imputation method and Weighted Robust Principal Component Analysis (WRPCA). This allows the inclusion of many data sets from clinical routine, covering a lot more variations of shape examples. To assess the quality of the models, which are robust against erroneous training shapes, an evaluation compares the generalization and specificity ability to a model build from ground truth data. The results show, that especially WRPCA is a powerful tool to handle corrupted parts and yields to reasonable models, which have a higher quality than the initial segmentations.
Die vorliegende Arbeit behandelt Techniken zur interakativen und physikalisch basierten Darstellung von Haaren für Computer-Generated Imagery (CGI). Dafür werden Techniken zur Simulation und Approximierung der Interaktionen von Licht mit Haar hergeleitet und vorgestellt. Des Weiteren wird beschrieben, wie Haare, trotz solch berechnungsintensiver Algorithmen, sehr interaktiv dargestellt werden können. Verfahren zur Berechnung von Schatten in Haaren sowie Ansätze zur effizienten Darstellung von Haar als transparente Geometrie werden ebenfalls vorgestellt. Einen Hauptschwerpunkt der Arbeit bildet dabei der DBK-Buffer, welcher im Rahmen dieser konzeptioniert, implementiert und evaluiert wurde. Mit Hilfe des DBK-Buffers ist es möglich tausende von transparenten Haaren sehr effizient darzustellen ohne auf Funktionalitäten der neusten Grafikkarten-Generation, oder sehr viel Videospeicher, angewiesen zu sein. Darüber hinaus wurde eine umfassende Evaluierung der beschriebenden Techniken bezüglich der visuellen Qualität, der Performanz und des Speicheraufwandes durchgeführt. Dabei wurde gezeigt, dass Haare nicht nur mit interaktiven, sondern sogar mit echtzeitfähigen Bildwiederholungsraten physikalisch basiert dargestellt werden können.
Das Ziel dieser wissenschaftlichen Arbeit ist es, verschiedene vorhandene cloud-basierte Internet of Things (IoT) Entwicklungsplattformen zu untersuchen und hier im Speziellen eine Plattform (IBM Watson IoT) anhand eines Anwendungsfallszenarios detailliert zu untersuchen. Bei IoT handelt es sich um eine aufkommende Technologie mit der Vision, die virtuelle Welt (z.B. Clouds, soziale Netzwerke) und die physikalische Welt (z.B. Geräte, Autos, Kühlschrank, Menschen, Tiere) durch die Internettechnologie miteinander zu verknüpfen. Beispielsweise kann das IoT-Konzept von “smart cities”, welche das Ziel verfolgen, die Produktivität und die Geschäftsentwicklung sowie die sozialen und kulturellen Angebote in der Stadt zu verbessern, durch die Nutzung von Sensoren, Aktuatoren, Clouds und mobilen Geräten erreicht werden (IEEE, 2015). Ein Sensor (z.B. ein Temperatursensor) in einem Gebäude (globale Welt) kann Echtzeitdaten an die IoT Cloud-Plattform (virtuelle Welt) senden, wo sie überwacht, gespeichert und analysiert werden oder eine Aktion auslösen können (z.B. das Kühlsystem in einem Gebäude anschalten, wenn die Temperatur eine bestimmte Grenze überschreitet). Obwohl IoT viele Möglichkeiten in verschiedenen Bereichen schafft (z.B. Transportwesen, Gesundheitsversorgung, verarbeitende Industrie), bringt es auch Herausforderungen mit sich, wie z.B. die Standardisierung, Interoperabilität, Skalierbarkeit, Sicherheit und Privatsphäre. In diesem Bericht werden IoT Konzepte und verwandte Schlüsselprobleme behandelt.
Der Fokus dieser wissenschaftlichen Untersuchung liegt in dem Vergleich verschiedener cloud-basierter IoT Plattformen, um die geschäftlichen Aspekte und die technischen Funktionen zu verstehen, die diese bieten. Die cloud-basierten IoT Plattformen von IBM, Google, Microsoft, PTC und Amazon wurden dabei untersucht.
Für die Ausgestaltung dieser Arbeit wurde die Design Science Research (DSR) Methode verwendet; für die Nachbildung des Echtzeit-IoT Systems wurde die IOT-A modellig Methode verwendet.
Der Vergleich verschiedener cloud-basierter IoT Entwicklungsplattformen zeigt, dass alle untersuchten Plattformen einfache IoT Funktionen bereitstellen, wie z.B. die Verbindung von IoT Geräten und der cloud-basierten IoT Plattform, das Sammeln von Daten von IoT Geräten, die Datenspeicherung und die Datenanalyse. Jedoch ist die IBM IoT Plattform den anderen Plattformen gegenüber aufgrund des integrierten Laufzeitsystems im Vorteil; dies macht sie zudem entwicklerfreundlich. Aus diesem Grund wurde die IBM Watson IoT für Bluemix für die weitere Untersuchung ihrer Einsatzmöglichkeiten ausgewählt. Das Angebot von IBM Watson IoT für Bluemix beinhalten Analytik, Risikomanagement, Verbindungs- und Informationsmanagement. Es wurde ein Anwendungsfall implementiert, um die Einsatzmöglichkeiten der IBM Watson IoT Plattform einzuschätzen. Die digitalen Artefakte (d.h. Anwendungen) wurden entwickelt, um die IoT Lösung von IBM zu bewerten. Die Ergebnisse zeigen, dass IBM eine skalierbare und entwickler- und einsetzungsfreundliche IoT Plattform bietet. Die enthaltene kognitive, kontextuelle und vorhersehbare Analytik erlaubt eine vielversprechende Funktionsweise, die Einblicke auf Basis der IoT Daten gewährt, die durch Sensoren oder andere IoT Geräte übertragen werden.
In recent years head mounted displays (HMD) and their abilities to create virtual realities comparable with the real world moved more into the focus of press coverage and consumers. The reason for this lies in constant improvements in available computing power, miniaturisation of components as well as the constantly shrinking power consumption. These trends originate in the general technical progress driven by advancements made in smartphone sector. This gives more people than ever access to the required components to create these virtual realities. However at the same time there is only limited research which uses the current generation of HMDs especially when comparing the virtual and real world against each other. The approach of this thesis is to look into the process of navigating both real and virtual spaces while using modern hardware and software. One of the key areas are the spatial and peripheral perception without which it would be difficult to navigate a given space. The influence of prior real and virtual experiences on these will be another key aspect. The final area of focus is the influence on the emotional state and how it compares to the real world. To research these influences a experiment using the Oculus Rift DK2 HMD will be held in which subjects will be guided through a real space as well as a virtual model of it. Data will be gather in a quantitative manner by using surveys. Finally, the findings will be discussed based on a statistical evaluation. During these tests the different perception of distances and room size will the compared and how they change based on the current reality. Furthermore, the influence of prior spatial activities both in the real and the virtual world will looked into. Lastly, it will be checked how real these virtual worlds are and if they are sufficiently sophisticated to trigger the same emotional responses as the real world.
While Virtual Reality has been around for decades it gained new life in recent years. The release of the first consumer hardware devices allows fully immersive and affordable VR for the user at home. This availability lead to a new focus of research on technical problems as well as psychological effects. The concepts of presence, describing the feeling of being in the virtual place, body ownership and their impact are central topics in research for a long time and still not fully understood.
To enable further research in the area of Mixed Reality, we want to introduce a framework that integrates the users body and surroundings inside a visual coherent virtual environment. As one of two main aspects we want to merge real and virtual objects to a shared environment in a way such that they are no longer visually distinguishable. To achieve this the main focus is not supposed to be on a high graphical fidelity but on a simplified representation of reality. The essential question is, what level of visual realism is necessary to create a believable mixed reality environment that induces a sense of presence in the user? The second aspect considers the integration of virtual persons. Can characters be recorded and replayed in a way such that they are perceived as believable entities of the world and therefore act as a part of the users environment?
The purpose of this thesis was the development of a framework called Mixed Reality Embodiment Platform. This inital system implements fundamental functionalities to be used as a basis for future extensions to the framework. We also provide a first application that enables user studies to evaluate the framework and contribute to aforementioned research questions.
“Did I say something wrong?” A word-level analysis of Wikipedia articles for deletion discussions
(2016)
Diese Arbeit beschäftigt sich damit, linguistische Erkenntnisse auf Wortebene über schriftlichen Diskussionen zu gewinnen. Die Unterscheidung zwischen Botschaften, welche sich förderlich auf Diskussionen auswirken und jene, welche diese unterbrechen, spielte dabei eine besondere Rolle. Hierbei lag ein Schwerpunkt darauf, zu ermitteln, ob Ich- und Du-Botschaften charakteristisch für die beiden Kommunikationsarten sind. Diese Botschaften sind über Jahre hinweg zu Empfehlungen für erfolgreiche Kommunikation avanciert. Ihre zugeschriebene Wirkung wurde zwar mehrfach bestätigt, jedoch geschah dies stets in kleineren Studien. Deshalb wurde in dieser Arbeit mithilfe der Löschdiskussionen der englischen Wikipedia und der Liste gesperrter Nutzer eine vollautomatische Erstellung eines annotierten Datensatzes entwickelt. Dabei wurden Diskussionsbotschaften entweder als förderlich oder schädlich für einen konstruktiven Diskussionsverlauf markiert. Dieser Datensatz wurde anschließend im Rahmen einer binären Klassifikation verwendet, um charakteristische Worte für die beiden Kommunikationsarten zu bestimmen. Es wurde zudem untersucht, ob anhand von Synsemantika (auch bekannt als Funktionswörter) wie Pronomen oder Konjunktionen eine Entscheidung über die Kommunikationsart einer Botschaft getroffen werden kann. Du-Botschaften wurden, übereinstimmend mit ihrer zugeschriebenen negativen Auswirkung auf Kommunikation, als schädlich in den durchgeführten Untersuchungen identifiziert. Entgegen der zugeschriebenen positiven Auswirkung von Ich-Botschaften, wurde bei diesen ebenfalls eine schädlich Wirkung festgestellt. Eine klare Aussage über die Relevanz von Synsemantika konnte anhand der Ergebnisse nicht getroffen werden. Weitere charakteristische Worte konnten nicht festgestellt werden. Die Ergebnisse deuten darauf hin, dass ein anderes Modell textliche Diskussionen potentiell besser abbilden könnte.
The publication of open source software aims to support the reuse, the distribution and the general utilization of software. This can only be enabled by the correct usage of open source software licenses. Therefore associations provide a multitude of open source software licenses with different features, of which a developer can choose, to regulate the interaction with his software. Those licenses are the core theme of this thesis.
After an extensive literature research, two general research questions are elaborated in detail. First, a license usage analysis of licenses in the open source sector is applied, to identify current trends and statistics. This includes questions concerning the distribution of licenses, the consistency in their usage, their association over a period of time and their publication.
Afterwards the recommendation of licenses for specific projects is investigated. Therefore, a recommendation logic is presented, which includes several influences on a suitable license choice, to generate an at most applicable recommendation. Besides the exact features of a license of which a user can choose, different methods of ranking the recommendation results are proposed. This is based on the examination of the current situation of open source licensing and license suggestion. Finally, the logic is evaluated on the exemplary use-case of the 101companies project.
Diese Arbeit betrachtet die Online-Aufmerksamkeit gegenüber Forschern und deren Forschungsthemen. Die enthaltenen Studien vergleichen die Aufmerksamkeitsdynamiken gegenüber Gewinnern wichtiger Forschungspreise mit Forschern die keinen Preis erhalten haben. Web-Signale wie Wikipedia Seitenaufrufe, Editierungen von Wikipedia-Artikeln und Google Trends wurden als Proxy für Online-Aufmerksamkeit verwendet. Dabei wurde herausgefunden, dass Wikipedia-Artikel über die Forschungsthemen von Gewinnern zeitnahe zum Artikel über den Gewinner erstellt wurden. Eine mögliche Erklärung hierfür könnte sein, dass die Forschungsthemen in einer engeren Beziehung zu den Gewinnern stehen. Dies würde die These unterstützen, dass Gewinner ihr Forschungsgebiet eingeführt haben. Zusätzlich wuchs die Online-Aufmerksamkeit gegenüber den Forschungsthemen von Gewinnern nach dem Tag an dem der Artikel über den Forscher erstellt wurde. Daraus kann abgeleitet werden, dass Themen von Gewinnern beliebter sind als die Themen von Forschern die keinen Preis erhalten haben. Des Weiteren wurde gezeigt, dass Gewinner des Nobelpreises vor der Verkündung weniger Online-Aufmerksamkeit erhalten als die Liste von Nominierten basierend auf den Thomson Reuters Citation Laureates. Ferner sank die Beliebtheit gegenüber der Preisträger schneller als gegenüber Forschern die keinen Preis erhalten haben. Zuletzt wurde demonstriert, dass eine Vorhersage der Gewinner basierend auf Aufmerksamkeitsdynamiken gegenüber Forschern problematisch ist.