Masterarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (189) (entfernen)
Schlagworte
- Augmented Reality (3)
- Computersimulation (3)
- Datenschutz (3)
- Internet of Things (3)
- virtual reality (3)
- Beschaffung (2)
- E-Partizipation (2)
- E-participation (2)
- Simulation (2)
- Sport (2)
Institut
- Institut für Computervisualistik (46)
- Fachbereich 4 (34)
- Institut für Management (33)
- Institut für Wirtschafts- und Verwaltungsinformatik (27)
- Institute for Web Science and Technologies (18)
- Institut für Informatik (14)
- Institut für Softwaretechnik (6)
- Fachbereich 1 (1)
- Fachbereich 3 (1)
- Fachbereich 6 (1)
Im Rahmen dieser Masterarbeit wird der Spanning Tree Simulator um diverse Funktionalitäten erweitert. Dieser wurde in der Bachelorarbeit [Jan10b] von Andreas Sebastian Janke im Jahr 2010 entwickelt. Mithilfe eines Conguration-Files kann ein beliebiges Netzwerk ins Programm geladen und grafisch dargestellt werden. Solch ein Configuration-File muss in XML geschrieben werden und repräsentiert ein Netzwerk bestehend aus Switches und Hosts. Anschließend kann auf diesem Netzwerk der Spanning Tree Algorithmus IEEE 802.1D laufen gelassen werden. Anders als in der Bachelorarbeit sind jetzt nur noch die Switches als Threads realisiert, um weniger Systemressourcen zu benötigen. Nach Abschluss des Algorithmus entsteht ein Spannbaum, der die Schleifen im vorliegenden Netzwerk aufbricht. Dies ist notwendig, da diese beim Verschicken von Nachrichten zu einer stetig steigenden Auslastung des Netzes führen können.
Künstliche Intelligenzen werden immer öfter erfolgreich in Spielen angewendet. Sie benötigen aber, je nach Komplexität des Spiels, viel Rechenleistung, um gute Ergebnisse erzielen zu können. Daher wird in dieser Arbeit ein Strategy Learning-System implementiert, welches auf der Basis von Crowd-Learned Heuristiken funktioniert. Die Heuristiken sind dabei in einem Wiki hinterlegt. Die Forschung wird nach der Design Science Research Methodology betrieben. Das implementierte System wird auf das Spiel Dominion angewandt, wofür eine Dominion-Ontologie definiert wird. Für die Implementation wird eine Mappingsprache definiert, mit der Informationen aus einem Wiki in eine Ontologie übertragen werden können. Zudem werden Metriken definiert, mit der die ermittelten Strategien bewertet werden können. Im System können Nutzer zum einen ein Mapping für die Informations-Übertragung angeben und anwenden und zum anderen für Dominion eine Menge an Karten auswählen, in der Strategien ermittelt werden sollen. Das System wird abschließend evaluiert, indem Dominion-Spieler die vom System ermittelten Strategien und die erarbeiteten Metriken bewerten.
Die vorliegende Arbeit behandelt Techniken zur interakativen und physikalisch basierten Darstellung von Haaren für Computer-Generated Imagery (CGI). Dafür werden Techniken zur Simulation und Approximierung der Interaktionen von Licht mit Haar hergeleitet und vorgestellt. Des Weiteren wird beschrieben, wie Haare, trotz solch berechnungsintensiver Algorithmen, sehr interaktiv dargestellt werden können. Verfahren zur Berechnung von Schatten in Haaren sowie Ansätze zur effizienten Darstellung von Haar als transparente Geometrie werden ebenfalls vorgestellt. Einen Hauptschwerpunkt der Arbeit bildet dabei der DBK-Buffer, welcher im Rahmen dieser konzeptioniert, implementiert und evaluiert wurde. Mit Hilfe des DBK-Buffers ist es möglich tausende von transparenten Haaren sehr effizient darzustellen ohne auf Funktionalitäten der neusten Grafikkarten-Generation, oder sehr viel Videospeicher, angewiesen zu sein. Darüber hinaus wurde eine umfassende Evaluierung der beschriebenden Techniken bezüglich der visuellen Qualität, der Performanz und des Speicheraufwandes durchgeführt. Dabei wurde gezeigt, dass Haare nicht nur mit interaktiven, sondern sogar mit echtzeitfähigen Bildwiederholungsraten physikalisch basiert dargestellt werden können.
Statistical Shape Models (SSMs) are one of the most successful tools in 3Dimage analysis and especially medical image segmentation. By modeling the variability of a population of training shapes, the statistical information inherent in such data are used for automatic interpretation of new images. However, building a high-quality SSM requires manually generated ground truth data from clinical experts. Unfortunately, the acquisition of such data is a time-consuming, error-prone and subjective process. Due to this effort, the majority of SSMs is often based on a limited set of this ground truth training data, which makes the models less statistically meaningful. On the other hand, image data itself is abundant in clinics from daily routine. In this work, methods for automatically constructing a reliable SSM without the need of manual image interpretation from experts are proposed. Thus, the training data is assumed to be the result of any segmentation algorithm or may originate from other sources, e.g. non-expert manual delineations. Depending on the algorithm, the output segmentations will contain errors to a higher or lower degree. In order to account for these errors, areas of low probability of being a boundary should be excluded from the training of the SSM. Therefore, the probabilities are estimated with the help of image-based approaches. By including many shape variations, the corrupted parts can be statistically reconstructed. Two approaches for reconstruction are proposed - an Imputation method and Weighted Robust Principal Component Analysis (WRPCA). This allows the inclusion of many data sets from clinical routine, covering a lot more variations of shape examples. To assess the quality of the models, which are robust against erroneous training shapes, an evaluation compares the generalization and specificity ability to a model build from ground truth data. The results show, that especially WRPCA is a powerful tool to handle corrupted parts and yields to reasonable models, which have a higher quality than the initial segmentations.
We examine the systematic underrecognition of female scientists (Matilda effect) by exploring the citation network of papers published in the American Physical Society (APS) journals. Our analysis shows that articles written by men (first author, last author and dominant gender of authors) receive more citations than similar articles written by women (first author, last author and dominant gender of authors) after controlling for the journal of publication, year of publication and content of the publication. Statistical significance of the overlap between the lists of references was considered as the measure of similarity between articles in our analysis. In addition, we found that men are less likely to cite articles written by women and women are less likely to cite articles written by men. This pattern leads to receiving more citations by articles written by men than similar articles written by women because the majority of authors who published in APS journals are male (85%). We also observed Matilda effect reduces when articles are published in journals with the highest impact factors. In other words, people’s evaluation of articles published in these journals is not affected by the gender of authors significantly. Finally, we suggested a method that can be applied by editors in academic journals to reduce the evaluation bias to some extent. Editors can identify missing citations using our proposed method to complete bibliographies. This policy can reduce the evaluation bias because we observed papers written by female scholars (first author, last author, the dominant gender of authors) miss more citations than articles written by male scholars (first author, last author, the dominant gender of authors).
Die vorliegende Arbeit befasst sich mit dem Thema Responsible Research and Innovation (RRI). Die Ziele der Arbeit sind die Klärung des Begriffs sowie die Ermittlung des aktuellen Stands der Forschung in dem Gebiet. RRI ist ein Konzept, welches wesentlich von der Europäischen Kommission (EC) geprägt wurde. Es ist zusammengesetzt aus Verantwortung, Forschung und Innovation, welche hier zunächst einzeln betrachtet werden. Verantwortung setzt sich gemäß der hier verwendeten Definition von Clausen (2009) aus Subjekt („Wer übernimmt Verantwortung“), Objekt („wofür,“), Adressaten („wem gegenüber“) und Instanzen („und wieso?“) zusammen. Im Rahmen des konzeptuellen Teils dieser Arbeit wird die Eigenschaft von Unternehmen als Verantwortungssubjekte damit begründet, dass sie zielgerichtet handeln und vor allem die Gesellschaft, welche gleichzeitig als wichtiger Adressat und als Instanz der Verantwortung auftritt, sie zunehmend für die Folgen ihrer Handlungen in die Pflicht nimmt. Das Gebiet der Nachhaltigkeit mit seinen Säulen Ökonomie, Ökologie und Soziales wird außerdem als Verantwortungsobjekt eingehend betrachtet. Innovation und ihre Teilmenge Forschung werden in dieser Arbeit als komplexe Prozesse verstanden, die Unternehmensziele auf neuartige Weise umsetzen. Mittels einer Literaturanalyse nach Webster & Watson (2002) wird der aktuelle Stand der Forschung zu RRI ermittelt. Der Großteil der verwendeten Literatur wird dabei als konzeptioneller Natur identifiziert. Trotz großer Unklarheiten, die noch vorherrschen, lassen sich vier Dimensionen von RRI herauslesen: Deliberation, Antizipation, Reflexivität und Reaktivität. Die Dimensionen, welche von der EC verwendet werden, sind demnach eher als Aktivitäten einzuordnen. Forschung und Innovation, welche nach RRI ausgerichtet wird, bezieht Stakeholder und insbesondere die Gesellschaft von Anfang an in den Prozess ein, betrachtet ihre möglichen Auswirkungen und stellt ihre Hintergründe und grundlegenden Werte kontinuierlich in Frage. Den wichtigsten Aspekt stellt dabei die Anpassungsfähigkeit des Prozesses gemäß den Ergebnissen aus den übrigen Dimensionen dar. Alle Aktivitäten basieren auf Verantwortung und Nachhaltigkeit und werden durch geeignete Steuerung integriert. Über die konzeptionelle Arbeit hinaus wurde erst wenig Forschung durchgeführt, insbesondere was Operationalisierung und Implementierung von RRI angeht. Für letztere wird hier die Einbettung in einen Stage-Gate-Prozess nach Cooper (2010) vorgeschlagen. Auch die tatsächliche Ausgestaltung der konzeptionellen Dimensionen muss jedoch noch konkretisiert werden. Außerdem muss insgesamt das Bewusstsein für RRI geschärft werden und ein Bekenntnis zu RRI erfolgen.
The erosion of the closed innovation paradigm in conjunction with increasing competitive pressure has boosted the interest of both researchers and organizations in open innovation. Despite such rising interest, several companies remain reluctant to open their organizational boundaries to practice open innovation. Among the many reasons for such reservation are the pertinent complexity of transitioning toward open innovation and a lack of understanding of the procedures required for such endeavors. Hence, this thesis sets out to investigate how organizations can open their boundaries to successfully transition from closed to open innovation by analyzing the current literature on open innovation. In doing so, the transitional procedures are structured and classified into a model comprising three phases, namely unfreezing, moving, and institutionalizing of changes. Procedures of the unfreezing phase lay the foundation for a successful transition to open innovation, while procedures of the moving phase depict how the change occurs. Finally, procedures of the institutionalizing phase contribute to the sustainability of the transition by employing governance mechanisms and performance measures. Additionally, the individual procedures are characterized along with their corresponding barriers and critical success factors. As a result of this structured depiction of the transition process, a guideline is derived. This guideline includes the commonly employed actions of successful practitioners of open innovation, which may serve as a baseline for interested parties of the paradigm. With the derivation of the guideline and concise depiction of the individual transitional phases, this thesis consequently reduces the overall complexity and increases the comprehensibility of the transition and its implications for organizations.
Diese Arbeit befasst sich mit der Entwicklung und Evaluierung eines Konzepts zur neuartigen Interaktion mit ubiquitären, also allgegenwärtigen, User-Interfaces. Für die Durchführung der Evaluierung dieses Interaktionskonzeptes wurde darüber hinaus eine prototypische Umsetzung einer Augmented Reality-Anwendung mit Hilfe einer bestehenden Head-Mounted-Display-Lösung und einem Android-Smartphone realisiert.
Zudem wurde im Rahmen dieser Arbeit ein konkreter Anwendungsfall für diesen Prototyp " das Navigieren durch einen Stadtteil mittels elektronischer Übersichtskarte " entwickelt und als lauffähige Anwendung implementiert, um die Qualität des Interaktionskonzeptes evaluieren zu können. Auf Grundlage dessen wurden sodann wesentliche Forschungserkenntnisse gewonnen.
Ontologien sind wichtige Werkzeuge zur Wissensrepräsentation und elementare Bausteine des Semantic Web. Sie sind jedoch nicht statisch und können sich über die Zeit verändern. Die Gründe hierfür sind vielfältig: Konzepte innerhalb einer Ontologie können fehlerhaft modelliert worden sein, die von der Ontologie repräsentierte Domäne kann sich verändern oder eine Ontologie kann wiederverwendet werden und muss an den neuen Kontext angepasst oder mit bestehenden Ontologien verbunden werden. Die Schwierigkeit dieses Prozesses hat zur Entstehung des Forschungsfeldes der Ontology Change geführt. Das Entfernen von Wissen aus Ontologien ist ein wichtiger Aspekt dieses Änderungsprozesses, da selbst das Hinzufügen neuen Wissens zu einer Ontologie das Entfernen bestehenden Wissens notwendig machen kann, falls dieses mit den neuen Vorstellungen in Konflikt steht. Dieses Entfernen muss jedoch wohldurchdacht sein, da das Ändern bestehender Konzepte leicht zu viel Wissen aus der Ontologie entfernen oder die semantische Bedeutung der Konzepte auf eine potenziell unerwartete Weise verändern kann. In dieser Arbeit wird daher ein formaler Operator zum präzisen Entfernen von Wissen aus Konzepten vorgestellt. Dieser basiert auf der Beschreibungslogik EL und baut partiell auf den Postulaten für Belief Set und Belief Base Contraction sowie der Arbeit von Suchanek et al. auf. Hierfür wird zunächst ein Einstieg in das Thema Ontologien und die Ontologiesprache OWL 2 gegeben und das Problemfeld der Ontology Change wird erläutert. Es wird dann gezeigt, wie ein formaler Operator diesen Prozess unterstützen kann und weshalb die Beschreibungslogik EL einen guten Ausgangspunkt für die Entwicklung eines solchen Operators darstellt. Anschließend wird ein Einblick in das Feld der Beschreibungslogiken gegeben. Hierfür wird die Geschichte der Beschreibungslogik kurz umrissen, Anwendungsgebiete werden genannt und es werden Standardprobleme in dieser Logik erläutert. In diesem Zusammenhang wird die Beschreibungslogik EL formal eingeführt. In einem nächsten Schritt werden verwandte Arbeiten untersucht und es wird gezeigt, warum das Recovery- und Relevance-Postulat für das Entfernen von Wissen aus Konzepten nicht unmittelbar anwendbar ist. Die hier gewonnenen Erkenntnisse werden anschließend dazu genutzt, die Anforderungen an den Operator zu formalisieren. Diese basieren hauptsächlich auf den Postulaten für Belief Set und Belief Base Contraction. Zusätzlich werden weitere Eigenschaften formuliert welche den Verlust des Recovery- bzw. Relevance-Postulates ausgleichen sollen. In einem nächsten Schritt wird der Operator definiert und es wird gezeigt, dass diese Definition das präzise Entfernen von Wissen aus EL-Konzepten gestattet. Mittels formaler Beweise wird zudem gezeigt, dass diese Definition alle zuvor aufgestellten Anforderungen erfüllt. In einem weiteren Beispiel wird dargestellt, wie der Operator in Verbindung mit sogenannten Laconic Justifications verwendet werden kann, um einen menschlichen Ontology-Editor durch das automatisierte Entfernen von unerwünschten Konsequenzen aus der Ontologie zu unterstützen. Aufbauend auf Algorithmen, welche aus der formalen Definition des Operators abgeleitet wurden, wird ein Plugin zum Entfernen von Wissen aus Ontologien für den Ontology-Editor Protégé vorgestellt. Anschließend werden die bisherigen Erkenntnisse zusammengefasst und es wird ein Fazit gezogen. Die Arbeit schließt mit einem Ausblick über mögliche zukünftige Forschung.
Eins der größten Ziele der Computergrafik ist die ästhetische Darstellung von Objekten. Neben herkömmlichen Verfahren existiert ein weiteres Feld, welches sich mit nicht-photorealistischen Renderings beschäftigt. Das Example-Based Rendering ist ein Gebiet, bei dem Benutzer ihren Kunststil, mit Hilfe einer handgemalten Vorlage, auf ein vorberechnetes 3D-Rendering übertragen können. Es existieren einige Algorithmen die bereits beeindruckende Ergebnisse liefern. Das Problem ist, dass die meisten Verfahren aus diesem Bereich zu den Offline-Verfahren zählen und nicht in der Lage sind Ergebnisse in Echtzeit zu produzieren. Aus diesem Grund zeigt diese Arbeit ein Verfahren, dass diese Bedingung erfüllt. Darüber hinaus wird untersucht, welchen Einfluss die Laufzeitminimierung auf die Resultate hat. Es sind Anforderungen definiert, auf die das Verfahren und dessen Ergebnisse überprüft werden. Dabei wird Bezug zu anderen Verfahren aus diesem Gebiet genommen und mit deren Resultaten verglichen.