Bachelorarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Bachelorarbeit (275) (entfernen)
Schlagworte
- Computervisualistik (8)
- OpenGL (7)
- Android (5)
- Computergrafik (5)
- Graphik (4)
- Line Space (4)
- Smartphone (4)
- Android <Systemplattform> (3)
- Augmented Reality (3)
- C++ (3)
Institut
- Institut für Computervisualistik (100)
- Fachbereich 4 (68)
- Institut für Management (42)
- Institut für Wirtschafts- und Verwaltungsinformatik (32)
- Institut für Informatik (14)
- Institut für Softwaretechnik (8)
- Institute for Web Science and Technologies (3)
- Fachbereich 6 (1)
- Fachbereich 7 (1)
- Institut für Evangelische Theologie (1)
In dieser Arbeit wird ein erster Prototyp einer mobilen Lernplattform mit Mixed-Reality-Funktionalität (MR) entwickelt. Dieses System soll in den Arbeitsprozess integriertes, selbstbestimmtes Lernen, in Interaktion mit dem Arbeitsgegenstand ermöglichen. Dies entspricht einem situierten, gemäßigt konstruktivistischen Kompetenzbegriff zur beruflichen Weiterbildung, wie ihn Martens-Parree beschreibt. Anhand eines Probandentests in einer Beispieldomäne, der Ausbildung von Piloten auf Segelflugzeugen, wird untersucht, ob Kompetenzvermittlung im Sinne von Handlungskompetenz mit Hilfe des mobilen MR-Lernmediums unterstützt wird und, ob das System bei konkreten Arbeitsaufgaben arbeitserleichternd wirkt. Die Annahmen der erwachsenenpädagogischen Ausgangsthesen konnten grundsätzlich gestützt werden, auch wenn keine direkte Handlungskompetenz, sondern lediglich eine Wissensvermittlung nachgewiesen werden konnte.
In dieser Arbeit werden vier der derzeit verfügbaren webbasierten Visualisierungstools evaluiert (FlexViz, Jambalaya applet, Experimental jOWL TouchGraph, Plone ontology).
Im Rahmen dieser Arbeit werden weiterhin folgende Fragen erforscht: 1. Welche Anforderungen an die Visualisierung von Ontologien können definiert werden? 2. Wie kann eine Bewertung und Analyse durchgeführt werden? 3. Wie kann eine ausgewählte Methode getestet werden? Basierend auf den Ergebnissen dieser Fragestellungen stellte sich die Visualisierungsmethode FlexViz im gegebenen Szenario als beste heraus. FlexViz wurde eingesetzt, indem es in das Content Management System Plone integriert wurde. Es wurde mit VCD Ontologien getestet und schließlich aus der Sicht verschiedener Interessengruppen analysiert. Es zeigte sich, dass FlexViz ein gutes Tool zum Visualisieren, Verstehen und Analysieren von bereits entwickelten Ontologien ist, da die Benutzeroberfläche benutzerfreundlich und interaktiv ist. Jedoch zeigt FlexViz deutliche Schwächen bzgl. dem Bearbeiten, Erweitern und Entwickeln von Ontologien.
Das Ziel der vorliegenden Bachelorarbeit war die Untersuchung
verschiedener Methoden zur Ermittlung und Verbesserung der User
Experience eines Softwareproduktes einer mittelständigen Firma. Hierzu
wurde zunächst ein geeignetes Designkonzept und dazu passende Methoden
der Evaluation und des Testings ermittelt und dann auf das Produkt
angewendet. Mit dem Leitgedanken des User-Centered-Designs wurden
Methoden ausgewählt, welche die Nutzerinnen/Nutzer ins Zentrum der
Untersuchung stellten.
So konnte mit Hilfe der Nutzerinnen/Nutzer des Produktes
herausgefunden werden, wie die User-Experience ausfällt und wie diese
noch verbessert werden kann. In einer Fokusgruppe sind Prototypen für
die Verbesserung und Weiterentwicklung der Software entstanden.
Diese Bachelorarbeit ist sowohl für Sofwaredesignerinnen/-designer,
als auch für Studentinnen/Studenten der Mensch-Maschine-Kommunikation
interessant.
Die Koloskopie ist der Goldstandard zur Aufspürung von gefährlichen Darmpolypen, die sich zu Krebs entwickeln können. In einer solchen Untersuchung sucht der Arzt in den vom Endoskop gelieferten Bildern nach Polypen und kann diese gegebenenfalls entfernen. Um den Arzt bei der Suche zu unterstützen, erforscht die Universität Koblenz-Landau zur Zeit Methoden, die zur automatischen Detektion von Polypen auf endoskopischen Bildern verwendet werden können. Wie auch bei anderen Systemen zur Mustererkennung werden hierzu zunächst Merkmale aus den Bildern extrahiert und mit diesen ein Klassifikator trainiert. Dieser kann dann für die Klassifikation von ihm unbekannten Bildern eingesetzt werden. In dieser Arbeit wurde das vorhandene System zur Polypendetektion um Merkmalsdetektoren erweitert und mit den bereits vorhandenen verglichen. Implementiert wurden Merkmale basierend auf der Diskreten Wavelet-Transformation, auf Grauwertübergangsmatrizen und auf Local Binary Patterns. Verschiedene Modifikationen dieser Merkmale wurden getestet und evaluiert.
Die Digitalisierung und die mediale Weiterentwicklung sind Kernprozesse des aktuellen digitalen Zeitalters. Damit auch Unternehmen vom technischen Fortschritt profitieren können, müssen jeweilige Kompetenzen vorhanden sein oder erworben werden. Unternehmen stehen hier also vor der Aufgabe mit der Masse an Neuheiten und Möglichkeiten nicht überfordert zu sein und diese im besten Fall für die eigene Leistungssteigerung nutzen zu können.
Da kleine und mittelständische Unternehmen 99 % aller Unternehmen in Deutschland darstellen und nicht bekannt ist, wie vor allem die sehr kleinen Unternehmen und ihre Mitarbeiter mit o.g. Entwicklung mitziehen können, wird genau diese Thematik in der vorliegenden Arbeit erforscht. Die Forschungsfrage besteht somit aus zwei Teilforschungsfragen. Zum einen: „Wird sich in den Kleinstunternehmen um die Kompetenzförderung der Mitarbeiter gekümmert?“ und zum anderen: „Wo sind hier die Chancen und Herausforderungen für Unternehmen dieser Größe?“
Um die Forschungsfrage zu beantworten, wurde sich einer qualitativen Forschungsmethode bedient, dem leitfadengestützten Interview. Die interviewten Unternehmen bewegten sich alle im Medien- und IT-Bereich. Somit konnte sich durch die aufgezeichneten und transkribierten Daten ein realer Einblick in die aktuelle Situation in Kleinstunternehmen verschafft werden.
Die Antworten der Interviews zeigten, dass Unternehmen mit sehr geringen Mitarbeiteranzahlen, von ihren Mitarbeitern abhängiger sind als andere. Also ist das Engagement der Mitarbeiter entscheidend für den Erfolg des Ganzen. Dieses zu fördern und die Mitarbeiterzufriedenheit zu gewährleisten ist die Aufgabe der Unternehmensleitung.
Unternehmen, in denen die Förderung der Mitarbeiter mehr Beachtung erfährt, bilden also die perfekte Anlaufstelle für Berufseinsteiger, die sich und ihren gesamten Erfahrungshorizont noch weiterentwickeln müssen und/oder wollen.
Im Rahmen dieser Arbeit soll eine Methodik erarbeitet werden, die englische, keyword-basierte Anfragen in SPARQL übersetzt und bewertet. Aus allen generierten SPARQL-Queries sollen die relevantesten ermittelt und ein Favorit bestimmt werden. Das Ergebnis soll in einer Nutzerevaluation bewertet werden.
With global and distributed project teams being increasingly common Collaborative Project Management is becoming the prevalent paradigm for the work in most organisations. Software has for many years been one of the most used tools for supporting Project Management and with the focus on Collaborative Project Management and accompanied by the emergence of Enterprise Collaboration Systems (ECS), Collaborative Project Management Software (CPMS) is gaining increased attention. This thesis examines the capabilities of CPMS for the long-term management of information which not only includes the management of files within these systems, but the management of all types of digital business documents, particularly social business documents. Previous research shows that social content in collaboration software is often poorly managed which poses challenges to meeting performance and conformance objectives in a business. Based on literature research, requirements for the long-term management of information in CPMS are defined and 7 CPMS tools are analysed regarding the content they contain and the functionalities for the long-term management of this content they offer. The study shows that CPMS by and large are not able to meet the long-term information management needs of an organisation on their own and that only the tools geared towards enterprise customers have sufficient capabilities to support the implementation of an Enterprise Information Management strategy.
Die folgende Arbeit zeigt eine Möglichkeit auf, Lokalisierung eines Objektes mittels Ultraschall zu realisieren. Dazu werden drei bis fünf im Raum verteilte Sensoren genutzt, um anhand von Distanzinformationen die Position eines Objekts relativ zu den Positionen der Sensoren zu bestimmen. Eine Besonderheit besteht dabei darin, dass die Sensoren nahezu beliebig in der Ebene verteilt sein können. Ihre Anordnung wird vom System in der Kalibrierungsphase mit Unterstützung des Anwenders ermittelt. Dabei dürften ein gleichseitiges Dreieck, ein Quadrat oder Pentagramm je nach Sensoranzahl die besten Ergebnisse liefern. Um die relative Bewegung in eine Absolute zu übertragen, findet eine Umrechnung in Meter anhand der Taktung der Mikrocontroller, des Prescalers des verwendeten Timers und der Schallgeschwindigkeit statt.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
Customization is a phenomenon which was introduced quite early in information systems literature. As the need for customized information technology is rising, different types of customization have emerged. In this study, customization processes in information systems are analyzed from a perspective based on the concept of open innovation. The objective is to identify how customization of information systems can be performed in an open innovation context. The concept of open innovation distinguishes three processes: Outside-in process, inside-out process and coupled process. After categorizing the selected journals into three core processes, the findings of this analysis indicated that there is a major concentration on outside-in processes. Further research on customization in coupled and inside-out processes is recommended. In addition, the establishment of an extensive up-to-date definition of customization in information systems is suggested.
Innovationen sorgen immer mehr für einen Wandel in unserem Arbeitsalltag. Das Zusammenspiel von voranschreitenden digitalen Technologien und unserer arbeitenden Gesellschaft, lässt den Ausdruck „New Work“ immer mehr in den Vordergrund rücken. „New Work“ impliziert, dass die Arbeitswelt zur Lebenswelt wird. In diesem Zusammenhang stehen Selbstverantwortung, Selbstbestimmung und Selbstverwirklichung eines Individuums im beruflichen wie auch im privaten Umfeld.
Gegenstand dieser Bachelorarbeit ist es durch eine Literaturanalyse die Begriffsbedeutung von „New Work“ sowie dessen Bestandteile und Hintergründe zu evaluieren und damit die erste Forschungsfrage „Welche Bedeutung hat der Begriff „New Work“ in Forschung und Praxis?“ zu beantworten. Dafür werden die zentralen Inhalte Digitalisierung und Technologie, Struktur der Arbeit sowie Arbeitseinstellung von „New Work“ aufgegriffen und explizit untersucht. Welche Wahrnehmung und was für einen Nutzen Angestellte und Unternehmer in Bezug auf diese Inhalte haben, wird in der vorliegenden Bachelorarbeit anhand einer qualitativen Untersuchung analysiert. Die gewonnenen Erkenntnisse aus den Experteninterviews dienen ebenso dem Vergleich zwischen Unternehmern und Angestellten.
Die Interviews liefern das Resultat, dass „New Work“ die persönliche und berufliche Entwicklung der Individuen positiv beeinflusst. Zudem hat „New Work“ neue Perspektiven sowie Anforderungen für Arbeitgeber und Arbeitnehmer veranlasst, wobei das zielorientiere und nicht mehr das zeitorientiere Arbeiten von Bedeutung ist. Durch die Realisierung und Umsetzung dieser, kommt es zu einem erfüllenden Gefühl in der Arbeits- und Lebenswelt. Veranlasst durch diese Entgrenzung, kann „New Work“ verwirklicht werden. Denn durch einen zufriedenstellenden Beruf, wird der Sinn und Zweck der Arbeit nicht mehr in Frage gestellt. Zum Ausdruck bring die Arbeit abschließend, dass es sich hierbei um eine kulturelle Revolution auf Basis des digitalen Wandels handelt.
Literaturanalyse und Darstellung aktueller Forschungsschwerpunkte zum Thema Entrepreneurial Strategy
(2019)
Entrepreneurial Strategy ist in der Literaturwelt weit verbreitet. Dieser Begriff fand schon im 20. Jahrhundert seine Anwendung und zieht sich bis ins heutige Zeitalter weiter. Diese Beständigkeit und Entwicklung des Entrepreneurs und dem Wunsch nach einem eigenen Unternehmen trieben die Diskussion dieses Themas voran. Die Wahl der passenden unternehmerischen Strategie ist eine der wichtigsten Entscheidungen, die ein Unternehmer treffen muss. Diese Problematik sorgte für eine Analyse und genaue Forschung der Entscheidungen und Einflussfaktoren. Resultate davon wurden festgehalten und interpretiert um die Branche der Entrepreneure zu fördern und somit die Wirtschaft anzutreiben. In der vorliegenden Arbeit wird zunächst ein Grundverständnis für die wichtigsten Begrifflichkeiten ausgearbeitet. Grundlage dieser Bachelorarbeit ist jedoch, anhand einer Literaturanalyse nach Webster und Watson (2002) einen Einblick in die Forschung der Entwicklung von Entrepreneurial Strategy zu geben und den aktuellen Stand herauszuarbeiten. Anahnd dieser Literaturanalyse werden Referenzen, Konzepte und die Notwendigkeit von Strategien verdeutlicht und die Rolle in einem Start-Up erklärt. Aus der Analyse und dem Vergleich zu älteren Veröffentlichungen geht hervor, das der Prozess der Strategiefindung eine Differenzierung in zwei Teile aufweist. Es wird unter dem Strategiesuch- und dem Strategieauswahlprozess uinterschieden. Merkmale, die früher als Allgemeine Einflussfaktoren für die Wahl der Strategie angenommen wurden, werden in der heutigen Literatur den genauen Prozessen und Phasen zugeteilt. Das Resultiert, das Merkmale, wie die persönlichen Eigenschaften, die Umgebung und das Humankapital eines Unternehmers mehr Einfluss während dem Suchprozess haben als während der darauffolgenden Auswahl. Zudem wurden für die Auwahl Methoden und Richtlinien entwickelt, die dem Unternehmer helfen sollen seine Alternativen zu sortieren und daraus zu wählen.
In dieser Arbeit werden zwei Verfahren zur Berechnung der globalen Beleuchtung vorgestellt. Das Erste ist eine Erweiterung von Reflective Shadow-Maps um einen Schattentest, womit Verdeckungsbehandlung erreicht wird. Das zweite Verfahren ist ein neuer, auf Light-Injection basierender, bidirektionaler Ansatz. Dabei werden Strahlen aus Sicht der Lichtquelle verfolgt und in der Linespace Datenstruktur in Schächten gespeichert, die eine Diskretisierung der Raumrichtungen darstellen. Die Linespaces sind dabei in ein Uniform Grid eingebettet. Beim Auslesen der vorberechneten indirekten Beleuchtung sind im Idealfall keine Traversierung der Datenstruktur und keine weitere Strahlverfolgung mehr notwendig. Damit wird eine Varianzreduzierung und eine schnellere Berechnung im Vergleich zu Pathtracing erzielt, wobei sich insbesondere Vorteile in stark indirekt beleuchteten Bereichen und bei Glas ergeben. Die Berechnung der globalen Beleuchtung ist allerdings approximativ und führt zu sichtbaren Artefakten.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Pixel-Sticks, ein digitales Hilfsmittel für das Light Painting. Schwerpunkte sind die Entwicklung von Hard- und Software des Sticks, sowie einer Android Applikation für die Bedienung.
Der Einbezug des Smartphones unterscheidet diesen Pixel-Stick anderen Varianten. Neben der grundlegenden Steuerung ist es möglich, Bilder direkt von dem Smartphone auf den Stick zu übertragen.
Im Rahmen dieser Bachelor-Arbeit wurde ein IT-gestützter Prototyp (als Excel-Applikation) entwickelt, mit dem komplexe Entscheidungsfindungen auf Grundlage der Nutzwertanalyse durchgeführt werden können. Er eignet sich zur Bewertung aller Arten von betrieblichen Anwendungssystemen, darüber hinaus ist er auch für andere unternehmerische Entscheidungen verwendbar, da die zugrunde liegende Nutzwertanalyse universell einsetzbar ist. Der Prototyp berücksichtigt und identifiziert 13 Merkmalsgruppen mit insgesamt 100 Merkmalen für Groupware. Ein zusätzlich erstelltes 20-minütiges Tutorial-Video erläutert Schritt für Schritt dessen Nutzung und Funktionalität. Sämtliche Gruppen und Merkmale wurden von einem befragten externen Experten gewichtet. Mit Hilfe des erarbeiteten umfangreichen Kataloges lassen sich künftig Groupware-Produkte effizienter und aussagekräftiger vergleichen. Dieses Tool ist eine Weiterentwicklung im Bereich der Nutzwertanalyse und hilft dabei, intuitiv und inhaltlich-vergleichend Merkmale/Gruppen zu erstellen und eine Nutzwertanalyse durchzuführen. Damit wird ein Benchmark mit vielfältigen Filteroptionen erstellt, der eine tabellarische als auch graphische Auswertung ermöglicht.
Das durchgeführte Experten-Interview und die Auswertung der Fachliteratur haben aber auch deutlich gemacht, dass die Nutzwertanalyse nicht als einziges Argument bzw. Instrument zur Entscheidungsfindung beitragen darf. Zangemeister, Systemtechniker und Fachmann im Bereich der mehrdimensionalen Bewertung und Entscheidungsfindung, merkt hierzu an: "Nutzwertmodelle dürfen nicht als Ersatz, sondern zunächst als eine wichtige Ergänzung der übrigen Modelle betrachtet werden, die dem systematischen Abbau der Entscheidungsproblematik bei der Auswahl von Projektalternativen dienen können" [Zangemeister 1976, S.7]. Alles in allem bietet die Nutzwertanalyse aufgrund der strukturierten Zergliederung des Bewertungsprozesses in Teilaspekte eine qualitativ bessere Übersicht über ein zu bewertendes Problem und stellt eine aussagestarke Zusammenstellung und Auswertung mit detaillierten Informationen über die Bewertungsobjekte auf.
Die vorliegende Bachelorarbeit untersucht Methoden der sozialen Netzwerkanalyse im Kontext von unternehmensinternen Kollaborationsplattformen und gibt einen Überblick über geeignete Kennzahlen anhand von literaturbasierten Erkenntnissen. Im Zuge dieser Literaturanalyse werden Vorteile der Social Network Analysis für Unternehmen, sowie mögliche Probleme, zum Beispiel in Bezug auf den Datenschutz erläutert. Anhand einer dynamischen Langzeitanalyse des Netzwerks der Plattform UniConnect wurde festgestellt, dass Zentralitätsmaße die Verbundenheit eines Akteurs im Netzwerk aufzeigen und Rückschlüsse auf die Stellung und Funktion des Mitarbeiters im Unternehmen ermöglichen. Außerdem kann durch eine Cliquenanalyse die Komplexität des Netzwerks festgestellt werden. Die Betrachtung der schrittweisen Entwicklung des Netzwerkes und ermöglicht das Auffinden von Personen, die in kürzester Zeit stark vernetzt sind. Solche Mitarbeiter sind im Kontext des Wissensmanagements und in Bezug auf die Informationsverbreitung von strategischer Bedeutung für Unternehmen.
Das Rheinland-Pfälzische Mittelbewirtschaftungssystem IRM@ genügt den Anforderungen eines modernen Management-Informationssystems nicht mehr. Die Bachelorarbeit stellt deshalb das Konzept "KoRe Light" für ein Reporting Systems zur Kostenrechnung vor, welches auf den Daten des Systems IRM@ basiert. Für die Öffentliche Haushaltsführung soll dieses System als Basis für die Entscheidungsfindung dienen. Methodisch wird die Systemanalyse verwendet, die auf der Analyse, Konzeption und Implementierung basiert.
Die Implementierung stellt jedoch keinen Teil der Arbeit mehr dar. Der Fokus der Konzeption liegt dabei in einer erweiterten Suchfunktion, welche umfangreichere und einfacher zu lesende Reports ermöglicht. Das Ergebnis besteht dabei aus den Komponenten Anwendungsfalldiagramm, Anforderungsdefinition, Datenmodell, Prozessmodell und Mock-Ups für "KoRe Light". Abschließend werden Handlungsempfehlungen für die Implementierung des Konzeptes gegeben und ein kurzes Fazit gezogen.
Die vorliegende Arbeit behandelt die Konzeption einer Smartphone-Applikation für Notfälle. Sie beschreibt die grundlegende Problemstellung und bietet einen konzeptionellen Lösungsansatz.
Den Kerninhalt der Arbeit bildet eine Anforderungsanalyse an eine neu zu konzipierende Notfall-Applikation. Weiterhin werden neben den funktionalen Anforderungen auch nicht-funktionale Anforderungen wie die Benutzerfreundlichkeit betrachtet, um daraus Erkenntnisse für das im Anschluss folgende Soll-Konzept der Applikation abzuleiten. Aufbauend auf einem erstellten Anforderungskatalog wird eine Marktanalyse bestehender Systeme für den Einsatz in Notfällen durchgeführt und auf Stärken und Schwächen hin untersucht. Daneben werden bereits existierende oder im Aufbau befindliche mHealth-Applikationen der Universität Koblenz betrachtet, deren Teilfunktionaltäten aufgrund des vorhandenen Quellcodes mit der späteren Applikation verknüpft werden können. Im Soll-Konzept werden die Erkenntnisse zusammengefasst und mögliche Architekturszenarien für die künftige Notfall-Applikation aufgezeigt. Bei der Bearbeitung des Themas wird deutlich, dass eine Konzeption alleine nicht weit genug greift, die Anforderungen an die zu erstellende Arbeit werden somit erweitert um die Anbindung und Integration der Rettungsleitstellen in das Konzept der Notfall-App.
Am Ende der Ausarbeitungen wird der Leser einen umfassenden Überblick über die Bereitstellung von Notfalldaten an die Leitstellen mittels unterschiedlicher Übertragungskanäle erhalten haben. Weiterhin werden Voraussetzungen für die Anforderungen an das zu konzipierenden System vorgestellt und mögliche Architektur-Szenarien des Notfall-Applikations-Systems aufgezeigt. Der generische und modulare Ansatz garantieren, dass das System offen für zukünftige Entwicklungen und die Anbindung von Teilfunktionalitäten weiterer Applikationen ist.
In dieser Forschungsarbeit werden Kriterien und Anforderungen für eine erfolgreiche Kollaborationsplattform zur Verbesserung der Kommunikation zwischen weltweit ver-teilten wissenschaftlichen Instituten der Eisenbahnbranche erarbeitet und bewertet. Hierzu wird zunächst eine Einführung in Kollaborationsplattformen und deren aktuelle Marktsituation und /-trends gegeben. Das daraus resultierende Wissen wird für eine qualitative Inhaltsanalyse in Form von Interviews mit der Zielgruppe der geplante Kol-laborationsplattform genutzt. Aufbauend auf dem Grundlagenwissen und der durchge-führten Interviews werden anschließend Hypothesen zur Kommunikation in wissen-schaftlichen Instituten gebildet. Diese Hypothesen dienen der Erstellung eines Frage-bogens für eine quantitative Befragung der Zielgruppe. Die folgende Analyse von allgemeinen Kollaborationsplattformen und solchen der Eisenbahnbranche gibt weitere Erkenntnisse und beschreibt Anforderungen für eine erfolgreiche Konzeption einer Kollaborationsplattform.
Eine anschließend geplante Konzeption dieser Plattform kann im Rahmen dieser Forschungsarbeit aufgrund fehlender aussagekräftiger Ergebnisse und Informationen nicht durchgeführt werden. Die geplante quantitative Inhaltsanalyse ist für den gewählten Rahmen zu aufwendig gewesen. In dieser Forschungsarbeit wird die quantitative Befragung für folgende Forschungsarbeiten in diesem Themenfeld vorbereitet. Weitere Arbeitsergebnisse werden für folgende Forschungsarbeiten ausgewertet und bereitgestellt.
Das Ziel dieser Arbeit ist es, zu bestimmen, ob neuronale Netze (insbesondere LSTM) zur Prozessvorhersage eingesetzt werden können. Dabei soll eine möglichst genaue Vorhersage zu dem Nachfolger eines Events getroffen werden.
Dazu wurde Python mit dem Framework TensorFlow genutzt, um ein rekurrentes neuronales Netz zu erstellen. Dabei werden zwei Netze erstellt, wobei das eine für das Training und das andere für die Vorhersage genutzt wird.
Die verwendeten Datensätze bestehen aus mehreren Prozessen mit jeweils mehreren Events. Mit diesen Prozessen wird das Netz trainiert und die Parameter nach dem Training gespeichert. Das Netz zur Vorhersage nutzt dann dieselben Parameter, um Vorhersagen zu Events zu treffen.
Das neuronale Netz ist in der Lage, nachfolgende Events eindeutig vorherzusagen. Auch Verzweigungen können vorhergesagt werden.
In der weiteren Entwicklung ist eine Einbindung in andere Programme möglich. Dabei ist es empfehlenswert, auf eine eindeutige Benennung der Events zu achten oder eine geeignete Umbenennung durchzuführen.
Diese Bachelorarbeit behandelt die Erweiterung eines Instant Messenger um die Funktion einer verschlüsselten Audio-/Videokonferenz. Es werden verschiedene zu diesem Zweck nutzbare Techniken beschrieben und gegenübergestellt. Besonderer Wert wird darauf gelegt, die Verbindung dementsprechend zu sichern, dass auch vertrauliche Informationen übermittelt werden können. Letztlich wird die Implementierung in Java für den Instant Messenger "Spark" sowie die Integration der Konferenz in ein eVoting-Plugin erläutert.
Ziel dieser Arbeit ist es, ein einfaches Konzept zur Überwachung von Hunden, die mehrere Stunden alleine zu Hause sind, zu entwickeln. Die prototypische Implementierung einer solchen„DogCam“ kann als Proof of Concept angesehen werden. Die Grundlage für die Implementierung des Prototypen sind die im Rahmen einer Anforderungsanalyse herausgearbeiteten Anforderungen. Weiterhin zeigt die vorliegende Arbeit auf, welche Verbesserungen und Erweiterungen der prototypischen „DogCam“ möglich sind und welche ähnlichen Projekte bereits existieren.
Die folgende Arbeit beschreibt die prototypische Konzeption und Entwicklung des Stat-Raising Spiels "Adventurer's Guild" mithilfe der Spielengine Ren'Py. Das Spiel soll eine durch Spielentscheidungen und Planung von Aktivitäten beeinflussbare Narrative haben und Spaß machen sowie optisch ansprechend sein.
Nach einem Überblick über das "Stat-Raising" als Genre sollen die existierenden Spiele "Dandelion - Wishes Brought to You", "Pastry Lovers", "Long Live the Queen" und "Magical Diary" analysiert werden, um anhand dessen die Schwächen und Stärken der verschiedenen Umsetzungen herauszufiltern.
Die daraus gewonnenen Erkenntnisse werden für die anschließende Konzeption eines neuen Stat-Raising Spiels genutzt.
Die Spielmechaniken und die getroffenen Designentscheidungen des resultierenden Spiels werden anschließend mit Screenshots gezeigt und ausführlich erklärt.
In einer finalen Bewertung wird das Spiel hinsichtlich der Aufgabenstellung untersucht. Im Ausblick werden weitere Ausbau- und Verbesserungsmöglichkeiten des Spiels aufgezeigt.
In dieser Arbeit wird die Konzeption, Implementierung und Evaluierung einer Augmented Reality-App beschrieben. Diese wurde mit dem Ziel entwickelt, Objekte im realen Raum mit virtuellen Hilfsmitteln auszumessen, sodass diese Anwendung einen Holzgliedermaßstab ersetzen kann. Hinzu kommt die praktische Speicherung der Messwerte. Angefertigt wurde die App mit der Unity Engine und programmiert in C#.
Schwerpunkte dieser Arbeit sind die Benutzerfreundlichkeit der App, sowie die Eignung von AR Foundation für das Ausmessungstool.
Die Anwendung wird auf die genannten Kriterien im Rahmen eines Nutzertests in einer abschließenden Evaluation bewertet.
Als Ergebnis ließ sich festhalten, dass sich die AR-App noch im Prototyp-Stadium befindet, aber im Allgemeinen schon als benutzerfreundlich gilt. Kleinere Änderungen sollen und müssen noch vorgenommen werden, um auch den Umgang mit dem AR-Tool zu vereinfachen.
In dieser Forschungsarbeit wird eine Methode zur anwendungsbasierten Verknüpfung von Anforde-rungen und Enterprise Collaboration Softwarekompenten vorgestellt. Basierend auf dem etablierten IRESS Modell wird dabei ein praxistaugliches Mappingschema entwickelt, welches Use Cases über Kol-laborationsszenarien, Collaborative Features und Softwarekomponenten mit ECS verbindet. Somit las-sen sich Anforderungen von Unterhemen in Form von Use Cases und Kollaborationsszenarien model-lieren und anschließend über das Mappingschema mit konkreten ECS verbinden. Zusätzlich wird eine Methodik zur Identifikation von in Softwarekomponenten enthaltenen Collaborative Features vorge-stellt und exemplarisch angewandt.
Anschließend wird ein Konzept für eine Webapplikation entworfen, welches das vorgestellte Mapping automatisiert durchführt, und somit nach Eingabe der Anforderungen in Form vom Use Cases oder Kol-laborationsszenarien, die ECS ausgibt, die eben diese Anforderungen unterstützen.
Die in den letzten Jahren fortschreitende Digitalisierung hat zur Ausbreitung und Popularisierung von Internet of Things (IoT) Technologie beigetragen (Mattern and Floerkemeier, 2010; Evans, 2013). Darüber hinaus wurde die Gesundheitsdomäne als eine der am stärksten aktiven IoT Bereiche identifiziert (Steele and Clarke, 2013). Die vorliegende Bachelorarbeit gibt einen Überblick über IoT gestützte Gamification und entwickelt ein Framework welches IoT und Gamification im Kontext einer Versicherung kombiniert. Beim Untersuchen von Gamification wurde ein konzeptuelles Modell entwickelt welches insbesondere die Rolle von IoT in einem solchen Ansatz verdeutlicht. Diesbezüglich wurde festgestellt, dass IoT bei der Aufgabenstellung Anwendung findet und diese zum einen in einem großen Rahmen ermöglicht sowie innovative und komplexere Aufgaben erlaubt. In diesem Zusammenhang wurden besonders die Vorteile und Notwendigkeit von tragbaren IoT Geräten erläutert. Eine Stakeholder Analyse beschäftigte sich mit den Vorteilen, welche durch IoT und Gamification erreicht werden können. Hierbei konnten zwei daraus erwachsende Paradigmenwechsel, für Versicherung und Versicherungsnehmer, identifiziert werden. Basierend auf den zuvor gewonnenen Erkenntnissen der Untersuchung der Gamification Ansätze und der Stakeholder Analyse wurde ein IoT gestütztes Gamification Framework entwickelt. Das Framework weißt einen Level-basierten Aufbau auf, welcher den Benutzer entlang des Entwurfsprozess leiten soll. Sowohl das erstellen, als auch das analysieren eines bestehenden Ansatzes ist mit dem Framework möglich. Darüber hinaus wurde das Framework anhand von Pokémon Go instanziiert um mögliche Mängel zu identifizieren und zu erklären. Die vorliegende Bachelorarbeit liefert eine Grundlage auf deren Basis umfassendere kontextbezogene Forschung betrieben werden kann
Abstract
This bachelor thesis delivers a comprehensive overview of the topic Internet of Things (IoT). With the help of a first literature review, important characteristics, architectures, and properties have been identified. The main aim of this bachelor thesis is to determine whether the use of IoT in the transport of food, considering the compliance with the cold chain, can provide advantages for companies to reduce food waste. For this purpose, a second literature review has been carried out with food transport systems without the use, as well as with the use of IoT. Based on the literature review, it is possible at the end to determine a theoretical ‘ideal’ system for food transport in refrigerated trucks. The respective used technologies are also mentioned. The findings of several authors have shown that often significant improvements can be achieved in surveillance, transport in general, or traceability of food, and ultimately food waste can be reduced. However, benefits can also be gained using new non-IoT-based technologies. Thus, the main knowledge of this bachelor thesis is that a theoretical ‘ideal’ transport system contains a sensible combination of technologies with and without IoT. This system includes the use of a Wireless Sensor Network (WSN) for real-time food monitoring, as well as an alarm function when the temperature exceeds a maximum. Real-time monitoring with GPS coupled with a monitoring center to prevent traffic jams is another task. Smart and energy-efficient packaging, and finally the use of the new supercooling-technology, make the system significantly more efficient in reducing food waste. These highlights, that when choosing a transport system, which is as efficient and profitable as possible for food with refrigerated transport, companies need not just rely on the use of IoT. On this basis, it is advisable to combine the systems and technologies used so far with IoT in order to avoid as much food waste as possible.
Diese Arbeit kombiniert zwei Themengebiete, welche in unserer Gesellschaft und Wirtschaft immer präsenter und aktueller werden. Das erste Thema beinhaltet die Nachhaltigkeit, welche sich in dieser Arbeit in die drei Säulen Ökologie, Ökonomie und Soziales untergliedert. Die erste Säule, Ökologie, beschäftigt sich hauptsächlich mit der Bekämpfung von Umweltproblemen und dem nachhaltigen Erhalt der Natur. Der Bereich Ökonomie befasst sich damit, die Ressourcen nachhaltig zu nutzen, um ein langfristiges Erzielen von wirtschaftlichen Erträgen zu gewährleisten. Die letzte Säule hat den Zweck die Soziale Nachhaltigkeit zu fördern, indem der gesellschaftliche Zusammenhalt gesichert und die Chance auf Arbeit ermöglicht wird, um gleichzeitig für gute Arbeitsbedingungen zu sorgen. Alle drei Säulen sind daher auch für Unternehmen relevant und sollten von diesen stetig beachtet werden, um eine sogenannte unternehmerische Nachhaltigkeit umzusetzen. Zur Unterstützung dieser Umsetzung, soll hier das zweite Thema hinzugezogen werden, das sogenannte Internet of Things. Das Internet of Things gewinnt, wie auch das Thema Nachhaltigkeit, zunehmend an Bedeutung und bietet viele Vorteile zur Unterstützung nachhaltiger Unternehmen. Dabei sollen immer mehr Geräte zu intelligenten Geräten gewandelt werden um eine Integration in ein Informationsnetzwerk zu gewährleisten. Dort können gesammelte Daten sinnvoll analysiert und genutzt werden, wodurch viele Bereiche effizienter gestaltet und viele Handlungen erleichtert werden können.
Aufbauend auf diesen zwei Themengebiete werden, im weiteren Verlauf dieser Arbeit, IoT- Technologien vorgestellt, die der Unterstützung, in den Bereichen Ökologie, Ökonomie und Soziales, von Unternehmen dienen. Zu den aufgezeigten Technologien werden anschließend Beispiele präsentiert und, wenn vorhanden, auch die jeweiligen Anbieter.
Da eine Nutzung von IoT-Technologien nicht nur von Vorteil ist, sondern auch Herausforderungen mit sich bringt, werden diese abschließend aufgezeigt. Diesen Herausforderungen gilt es sich seitens der Unternehmen, der Gesellschaft und auch der Politik zu stellen, um eine effiziente Nutzung zu ermöglichen.
Diese Arbeit vermittelt die mathematischen Grundlagen des Ray-Casting Algorithmus und bespricht eine interaktive Umsetzung auf Grafikkarten mit Hilfe einer modernen Schnittstelle. Die Implementation erfolgt im Rahmen eines umfassenden Programmes, welches weitere Techniken und Verbesserungen des Algorithmus für den Nutzer anwählbar macht. Unter anderem wird von Transferfunktionen und lokaler Beleuchtung Gebrauch gemacht, um realistische Materialien darstellen zu können. Die Benutzeroberfläche bietet die Möglichkeit, Volumina zu importieren, Transferfunktionen zu definieren, Parameter der Darstellung einzustellen und weitere Techniken zu aktivieren, deren Grundlagen und Umsetzung ebenfalls in dieser Arbeit dargelegt werden. Der Nutzen der anwählbaren Optionen wird je nach Fall auf optische Qualität oder Vorteil in der Performance hin untersucht.
Bei der eindeutigen Isolation und Klassifizierung von Merkmalen in 3D-Multi-Attribut-Volumendaten sind multidimensionale Transferfunktionen unabdingbar. Jedoch wird bei mehreren Dimensionen das Verständnis der Daten sowie die Interaktion mit diesen zu einer Herausforderung. Weder die Kontrolle der vielseitigen Eingabeparameter noch die Visualisierung im höherdimensionalen Raum sind trivial.
Ziel dieser Arbeit ist die Erstellung eines Transferfunktionseditors, der durch die Verwendung von verschiedenen Visualisierungs- und Interaktionstechniken, z.B. der Verwendung von parallelen Koordinatenachsen, die Erstellung multidimensionaler Transferfunktionen unterstützt. Dabei sollen unterschiedliche Dimensionen interaktiv ausgewählt und kombiniert werden und die Veränderungen der Transferfunktion durch visuelles Feedback im gerenderten Volumen bestätigt werden.
Ziel der Bachelorarbeit war es, eine moderne Art des Geländespiels "Schnitzeljagd" zu entwickeln. Dieses sollte möglichst auf jedem aktuellen Smartphone spielbar sein, welches mit dem Betriebssystem Android arbeitet. Das Gelände ist begrenzt auf den Universitätscampus Koblenz, somit dient das Spiel auch dazu, den Campus besser kennenzulernen.
Den Benutzern der Campusjagd wird eine mobile Applikation geboten, welche sie anhand von Hinweisen und Rätseln über den kompletten Campus führt, um letztendlich an einen Zielort zu gelangen, an welchem sich ein "Schatz" befindet. Anstatt wie üblich auf dem Gelände Schnitzel bzw. Schnipsel mit Hinweisen zu verstecken, werden bei der Campusjagd QR-Codes aufgehängt, um so den Weg zu markieren. Zur Täuschung sind auch irrelevante Codes zu finden. Die Codes müssen in der richtigen Reihenfolge abgelaufen werden, d. h. von einem Code erhält der Spieler den Hinweis zum jeweiligen Nächsten. Außerdem ist es möglich, dass aus einem QR-Code mehrere Hinweise für nächste Stationen angezeigt werden.
Infinite worlds
(2013)
Diese Arbeit befasst sich mit dem Erstellen eines 2D-Action-Adventures mit Rollenspielelementen. Sie soll einen Überblick über verschiedene Aspekte der Realisierung geben. Zuerst wird die Spielidee und die verwendeten Spielmechanismen beschrieben und daraus eine Anforderungsdefinition erstellt. Nachdem das verwendete Framework kurz erläutert wurde, wird das softwaretechnische Konzept zur Realisierung vorgestellt. Die Umsetzung der Komponenten Steuerung, Spieleditor, Sound und Grafiik wird aufgezeigt. Bei der grafiischen Umsetzung wird ein besonderes Augenmerk auf die Abstraktion von Licht und Schatten in die 2D-Spielewelt gelegt.
Im Rahmen dieser Arbeit wird ein Programm in Java entwickelt, mit dem man sich beliebige Netzwerke graphisch anzeigen lassen kann. Diese Netzwerke müssen im Vorfeld mit Hilfe eines Configuration-Files beschrieben werden und dürfen nur aus Layer-2-Switches und Hosts aufgebaut sein. Nach Ladung eines solchen Files ins Programm kann das Netzwerk dort visualisiert werden. Darauf kann man dann den Spanning-Tree-Algorithmus IEEE 802.1D laufen lassen. Das Programm bietet auch die Möglichkeit, verschiedene Attribute der Switches und ihrer Ports nach Belieben einzustellen. Neben dem reinen Algorithmus werden die Hosts sich gegenseitig auch noch Normdaten zuschicken, wodurch die einzelnen STA-Mac-Tabellen aufgebaut werden. Ein weiteres Ziel ist es, die Switches mittels Threads parallel und unabhängig voneinander arbeiten zu lassen. Dies hat zur Folge, dass die Switches auf kein globales Wissen zugreifen können. Es gibt keine übergeordnete Instanz, die alle Switches lenkt und steuert. Diese Realisierung kommt der echten Arbeitsweise eines Netzwerks näher, als wenn alle Switches immer sofort über alle Abläufe Bescheid wissen.
In dieser Arbeit wird das in letzter Zeit zunehmend wichtiger werdende Thema der Routenaggregation und deren Auswirkung auf die Verhinderung von Routingschleifen behandelt. Als Basis für die Implementation und Evaluation dient das an der Universität Koblenz entwickelte RMTI-Protokoll, bei dem es sich um eine Weiterentwicklung des in RFC2453 spezifizierten Routing Information Protocol Version 2 handelt. Dieses Protokoll kommt, in dieser Arbeit, innerhalb der virtuellen Netzwerkumgebung Virtual Network User-Mode-Linux (VNUML) zum Einsatz. Mit VNUML ist es möglich konkrete Netzwerkszenarien virtuell zu betreiben und zu untersuchen. Der RMTI ist bereits in der Lage topologische Schleifen zu erkennen und dadurch das Entstehen von Routingschleifen nachweislich zu verhindern. Im Rahmen der Arbeit wird die Funktionsweise des RMTI beschrieben und anschließend darauf eingegangen, unter welchen Umständen eine Routenaggregation vorgenommen werden darf ohne das die Aggregation Routinganomalien nach sich zieht. Um diese Änderungen vornehmen zu können ist ein tieferes Verständnis der Struktur von Routingtabellen notwendig, daher wird deren Aufbau anhand von Beispielen erläutert. Im Anschluss wird beschrieben an welchen Stellen Änderungen am RMTI vorgenommen werden müssen um trotz Aggregation eine Verhinderung von Routingschleifen bewirken zu können. Am Ende der Arbeit findet abschließend eine Evaluation der Reorganisationsfähigkeit des virtuellen Netzes bei vorgenommener Routenaggregation statt.
The goal of this Bachelor thesis is to implement and evaluate the "Simulating of Collective Misbelief"-model into the NetLogo programming language. Therefore, the model requirements have to be specified and implemented into the NetLogo environment. Further tool-related re-quirements have to be specified to enable the model to work in NetLogo. After implementation several simulations will be conducted to answer the research question stated above.
Next Word Prediction beschreibt die Aufgabe, das Wort vorzuschlagen, welches ein Nutzer mit der höchsten Wahrscheinlichkeit als Nächstes eingeben wird. Momentane Ansätze basieren auf der Analyse sogenannter Corpora (große Textdateien) durch empirischen Methoden. Die resultierende Wahrscheinlichkeitsverteilungen über die vorkommenden Wortsequenzen werden als Language Models bezeichnet und zur Vorhersage des wahrscheinlichsten Wortes genutzt. Verbreitete Language Models basieren auf n-gram Sequenzen und Smoohting Algorithmen wie beispielsweise dem modifizierten Kneser-Ney Smoothing zur Anpassung der Wahrscheinlichkeit von ungesehenen Sequenzen. Vorherige Untersuchungen haben gezeigt, dass das Einfügen von Platzhaltern in solche n-gram Sequenzen zu besseren Ergebnissen führen kann, da dadurch die Berechnung von seltenen und ungesehenen Sequenzen weiter verbessert wird. Das Ziel dieser Arbeit ist die Formalisierung und Implementierung dieses neuen Ansatzes, wobei zusätzlich das modifizierte Kneser-Ney Smoothing eingesetzt werden soll.
Um realistische Bewegungsabläufe zu simulieren, müssen Muskeln anatomisch korrekt modelliert werden können. Bisher ist es in SimPack nur möglich, Muskeln als gerade Linie zwischen zwei Punkten zu definieren. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem Ellipsen definiert werden können, durch die ein Muskel laufen muss. Dabei entsteht vor allem das Problem, die Länge dieses Muskels durch die Ellipsen zu berechnen. Es wird ein Algorithmus vorgestellt, der den kürzesten Weg eines Muskelpfades durch diese Ellipsen berechnet. Dieser Algorithmus wird anschließend in Fortran 90 umgesetzt und in ein bestehendes Muskelmodell in SimPack integriert.
Ist es möglich, allein mittels VR-Headset bei Nutzern Immersion zu
erzeugen? Zur Beantwortung dieser Frage werden zwei Simulationen einer
Achterbahnfahrt ohne haptisches Feedback mittels der Unreal Engine
4.20.3 für ein HTC-Vive VR Headset entwickelt und implementiert. Die
zweite Simulation unterscheidet sich von der ersten durch die Darbietung
außergewöhnlicher Ereignisse während der Fahrt, für die vermutet wird,
dass sie das Immersionserleben verstärken. Elf Probanden nahmen an der
Untersuchung teil. Die Auswertung eines Fragebogens zur Erfassung der
Intensität der Immersion und der Antworten auf offenen Fragen zeigt, dass
Immersion in beiden Simulation erfolgreich erzeugt werden konnte. Manche
Merkmale der Simulation vertieften bei einzelnen Probanden das immersive
Erleben, bei anderen dagegen nicht. Die Bedeutung der Ergebnisse
und Optimierungsmöglichkeiten für künftige Studien werden diskutiert.
In den letzten Jahren hat das Internet of Things in Unternehmen sowie der Literatur wegen seiner Innovationspotenziale zunehmend Aufmerksamkeit gewonnen. Auch die Logistik bleibt von dem wachsenden Interesse am Internet of Things nicht unberührt, da die Globalisierung und der steigende Konkurrenzdruck sie ständig vor neue Herausforderungen stellt. Deshalb wird nach Ansätzen und Anwendungen geforscht, wie die Logistik zur Bewältigung ihrer Herausforderungen von den Konzepten des Internet of Things, seinen Ideen sowie Technologien profitieren kann. Diese Ausarbeitung befasst sich mit der Identifikation jener Ansätze und Anwendungen in Logistikprozessen. Dazu wird aktuelle Literatur hinsichtlich des Innovationspotenzials des Internet of Things für die Logistik und ihre Prozesse untersucht. Das Ergebnis dieser Arbeit ist eine strukturierte Übersicht von identifizierten IoT Logistik Use Cases, inklusive der verwendeten Devices sowie der betroffenen Stakeholder. Die Fragen, ob das Internet of Things den Erwartungen gerecht wird, welchen Nutzen die IoT Use-Cases bieten und welche Problembereiche sich infolge des Einsatzes von Internet of Things Technologien ergeben, werden am Ende dieser Ausarbeitung geklärt.
Die Erzählung Der Sandmann ist seit nun mehr zwei Jahrhunderten Bestandteil der deutschen Literaturhistorie. Als eines der bekanntesten Werke E.T.A. Hoffmanns hat es im Laufe der Zeit darüber hinaus seinen Platz unter anderem in der Oper, im Hörspiel und auch im Film gefunden. An dieser Stelle setzt die hier vorgelegte Arbeit an und untersucht Hoffmanns Novelle sowie eine filmische Umsetzung in Hinblick auf ihre (formalen und inhaltlichen) Eigenheiten. Das Ziel dieser Arbeit ist dabei die Beantwortung der Frage, ob die behandelten Motive als Leitmotive bezeichnet werden können, welche formalen Eigenheiten sie möglicherweise unterstützen und wie sich die Charakteristik der Erzählung inklusive der Motive für einen Film (beziehungsweise für ein Drehbuch) adaptieren lässt.
Der Forschungsbereich E-Government gewinnt in Deutschland und Europa immer mehr an Bedeutung. Die Anzahl der Akteure wächst ständig, sodass es für Außenstehende und Interessierte schwierig ist, den Überblick zu behalten. Es ist diese enorme Informationsflut, die eine Forschungslandkarte für den E-Government-Bereich für sinnvoll erscheinen lässt. Auf dieser Internetplattform soll ein Überblick über alle relevanten Akteure, die im Bereich E-Government Forschung betreiben, gegeben werden. Um einen vollständigen Überblick geben zu können, müssen auch Informationen angezeigt werden, die in der Vergangenheit gültig waren. Voraussetzung hierfür ist die Historisierung relevanter Inhalte. Hierbei wird bei Änderung eines Objekts oder Attributs das Objekt oder Attribut nicht überschrieben, sondern eine neue Version in der Datenbank angelegt. Auf diese Weise sind die Benutzer in der Lage, die Forschungslandkarte zeitbezogen zu navigieren. Erfahrungen haben gezeigt, dass die Historisierung von Webinhalten bereits bei der konzeptionellen Phase und beim Design einer Online-Plattform eingeplant und modelliert werden soll, um so den temporalen Anforderungen zu genügen. Diese Bachelorarbeit beschäftigt sich mit der Herausforderung der Historisierung der Inhalte der Forschungslandkarte und legt ein Konzept vor, das die temporale Datenhaltung bei der Konzeptionierung der Plattform berücksichtigt.
Die Prinzipien des Projektmanagements befinden sich aufgrund der Einflüsse wirtschaftlicher Rahmenbedingungen und der technologischen Entwicklung im Umbruch [Wills 1998 & Jons-son et al. 2001]. Die zunehmende internationalisierung, verkürzte Markteinführungszeiten (Time-to-Market), sich ändernde Arbeitskosten und die steigende Einbeziehung von Fachkräf-ten aus verschiedenen geografischen Standorten, treiben die Wandlungen der Projektland-schaft an [Evaristo/van Fenema 1999]. Resultierend daraus, wird die Nutzung kollaborativer Technologien ein entscheidender Faktor für den Erfolg eines Projektes [Romano et al. 2002]. Die bisherige Forschung zum Thema kollaborative Technologien für Projektmanagementzwe-cke, fokussiert vor allem die Entwicklung von modellartigen, allgemeingültigen Systemarchi-tekturen zur Eruierung der Anforderungen an ein speziell entwickeltes kollaboratives Projekt-managementsystem. Diese Arbeit untersucht die Herausforderungen und Vorteile, die aus der Einführung einer Standard-Business-Software als kollaboratives Projektmanagementsystem in einem mittel-ständischen Unternehmen resultieren.
In der vorliegenden Arbeit untersuche ich eine breite Spanne von Libraries, Frameworks und anderer Technologien für die Programmiersprache Haskell. Ich demonstriere verschiedene praktische Anwendungen von Haskell und trage durch Implementationen und Taxonomieeinheiten zum 101companies System bei. Dies tue ich, indem ich einen großen Teil des 101companies feature models abdecke und damit verknüpfte Definitionen von Begriffen und Technologien in dieses System einpflege. Die Implementationen zeigen, wie verschiedene Sprachkonzepte von Haskell wie ein sehr starkes Typensystem, Polymorphismus, Funktionen höherer Ordnungen und Monaden effektiv bei der Entwicklung von Informationssystemen benutzt werden können. In diesem Zusammenhang zeige ich sowohl Vorteile als auch Einschränkungen der verschiedenen Technologien auf.
Die Arbeitsgruppe Echtzeitsysteme an der Universität Koblenz beschäftigt sich seit mehreren Jahren mit der Thematik autonomes und assistiertes Fahren. Eine große Herausforderung stellen in diesem Zusammenhang mehrgliedrige Fahrzeuge dar, deren Steuerung für den Fahrer während der Rückwärtsfahrt sehr anspruchsvoll ist. Um präzise Manöver zu ermöglichen, können elektronische Fahrerassistenzsysteme zum Einsatz kommen. Im Rahmen vorhergehender Arbeiten sind bereits einige Prototypen entstanden, von denen jedoch keiner eine geeignete Lösung für moderne, zweiachsige Anhänger darstellt. Im Rahmen dieser Arbeit wurde ein prototypisches Fahrerassistenzsystem entwickelt, wobei es noch weiterer Forschungs- und Entwicklungsarbeit bedarf, um das System straßentauglich zu machen.
Diese Arbeit befasst sich mit verschiedenen Möglichkeiten zur Interaktion
mit dreidimensionalen, virtuellen Objekten in der realen Umgebung des
Nutzers. Im Vordergrund stehen Interaktionsmöglichkeiten, welche durch
neue AR-Technologien aufkommen.
Dazu wird ein spielerischer Prototyp einer Applikation für die von Microsoft
entwickelte HoloLens konzipiert und implementiert. Der Prototyp
des Spiels besteht aus drei Phasen. Die erste Phase ist die Aufnahme der
realen Umgebung des Nutzers. In der zweiten Phase kann der Nutzer die
reale Umgebung mit der Hilfe von virtuellen Objekten erweitern. In der
dritten Phase muss der Nutzer einen virtuellen Avatar durch die reale Umgebung
navigieren.
Die Interaktionsmöglichkeiten der HoloLens wie Gaze, Gesture und VoiceInput
werden in den Kategorien Menüführung, Positionierung von virtuellen
Objekten im dreidimensionalen Raum und Steuerung eines Avatars einer
Evaluation unterzogen.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
Diese Arbeit zeigt eine neue Technik der Computergrafik zur Simulation von globaler Beleuchtung durch Path Tracing in Echtzeit. Das Path Tracing wird dafür mit Compute Shadern auf der Grafikkarte (GPU) realisiert, um das Rendering hoch parallelisiert auszuführen. Zur Beschleunigung der Strahlverfolgung wird dabei der
Line Space in verschiedenen Varianten als Datenstruktur verwendet, um leere Bereiche in der Szene schneller zu überspringen. Der Line Space speichert Szeneninformationen basierend auf einer Voxelisierung in richtungsabhängige Shafts und wird sowohl auf der GPU generiert, als auch traversiert. Mit diesem Verfahren kann eine Szene physikalisch korrekt indirekt beleuchtet und mit weichen Schatten schattiert werden. Außerdem kann das Path Tracing damit weitgehend unabhängig von der Polygonanzahl mit über 100 Bildern pro Sekunde klar in Echtzeit durchgeführt werden und ist somit deutlich schneller als mit einem vergleichbaren Voxel-Gitter. Die Bildqualität wird davon nicht negativ beeinflusst und die Schattenqualität ist in den meisten Fällen deutlich besser als bei der Verwendung von Shadow-Mapping.
In dieser Arbeit wird überprüft, ob die Befahrung mit Forstmaschinen auf Andosol-Waldstandorten Auswirkungen auf die Bodenverdichtung hat. Dazu werden Faktoren wie die Anzahl der Befahrungen, die Neigung sowie die Bodenart betrachtet und analysiert. Die Andosolböden im Untersuchungsgebiet sind durch sehr geringe Lagerungsdichten sowie hohe Porenvolumen, bedingt durch Laacher See-Tephra (LST), gekennzeichnet.
Infolge der Befahrung durch Forstmaschinen bei zum Teil ungünstiger Witterung, bildeten sich bis zu 67 cm tiefe Fahrspuren. Des Weiteren erhöht sich die Lagerungsdichte im Vergleich zum unbeeinflussten Wald im Schnitt um 17 %, im Extremfall bis zu 54 %. Einzeln betrachtet kann für die Bodenart ein starker Zusammenhang zwischen Feinboden, vor allem Schluff sowie Ton, und der Lagerungsdichte festgestellt werden. Ein Zusammenhang zwischen der Hangneigung und der Verdichtung des Bodens kann anhand der untersuchten Rückegasse nicht festgestellt werden. Die Anzahl der Befahrungen scheint im Untersuchungsgebiet mit dem Grad der Verdichtung einherzugehen.
Diese Arbeit befasst sich mit einer 3D-Interaktion von primitiven Objekten, welche von Gesten gesteuert wird. Dabei werden Funktionen, welche auf eine absolute Positionierung angewiesen sind, mit Hilfe eines Touchscreens implementiert. Als zweites Eingabegerät dient die Leap-Motion, welche Gesten anhand von zwei CCD-Kameras und drei Infrarot-LEDs aufnimmt. Die Gesten bestehen dabei aus der Translation, Rotation und Skalierung von Objekten, sowie aus einer Steuerung, die die Bewegung im Raum ermöglicht. Zur visuellen Umsetzung wurde die Arbeit in Blender mit der Blender Game Engine unter Python geschrieben. Nur das Auswählen der Objekte wurde mit Hilfe des Touchscreens realisiert. Diese Steuerung wurde anschließend mit einer reinen Maussteuerung evaluiert. Diese beiden Eingabemöglichkeiten unterscheiden sich darin, dass die Gestensteuerung nicht etabliert ist. Sie besitzt allerdings den Vorteil, dass sie im dreidimensionalen Raum ausgeführt werden kann. Die Maus hingegen ist geläufig, beschreibt aber nur einen zweidimensionalen Raum als Eingabe. Es stellt sich also die Frage, ob bei der dreidimensionalen Interaktion von Objekten eine Maussteuerung oder eine Gestensteuerung bevorzugt wird. Das Ergebnis beläuft sich daran, dass die Maus favorisiert wird. Jedoch liegt die Gestensteuerung in manchen Bereichen nah an dem Ergebnis der Maus.
Das Ziel dieser Bachelorarbeit bestand darin, die Verbindung zwischen den Technologien Augmented und Virtual Reality zu veranschaulichen und ein sinnvolles Zusammenspiel der beiden Darstellungsformen zu kreieren. Hierfür wurde eine Anwendung im Bereich der Innenarchitektur implementiert, bei welcher man einen Raumplan mittels Augmented Reality intuitiv gestalten und sich anschließend einen realitätsnahen Eindruck des eingerichteten Zimmers mit einer Virtual Reality Simulation machen kann. Auf Basis des nötigen Grundwissens wurde ein Konzept für dieses Projekt ausgearbeitet und anschließend mit verschiedenen Entwicklungssystemen realisiert. Diese Implementierung wurde im Rahmen einer Evaluationsreihe getestet und darauffolgend optimiert. Das Ergebnis bestätigt die Annahme, dass sich Augmented und Virtual Reality mit ihren jeweiligen Stärken evident miteinander verbinden lassen. Diese Arbeit ist sowohl für Studierende im Bereich Informatik als auch für Interessenten an innovativen Lösungen relevant.
Die Bachelorarbeit über das Thema "Geld in PC-Spielen - Inflation in World of Warcraft" beschäftigt sich mit der Frage, ob es Inflation in der virtuellen Spielumgebung von World of Warcraft gibt und ob diese Entwicklung auf vergleichbaren Ursachen der realen Welt beruht. World of Warcraft ist mit 8 Millionen Spielern weltweit das bisher erfolgreichste Multiplayer Onlinespiel und wurde deshalb als Betrachtungsgegenstand ausgewählt.
Um den wachsenden Anforderungen an die Automobilindustrie gerecht zu werden, reduzieren Automobilhersteller stetig die Fertigungstiefe und verlagern wertschöpfende Anteile zunehmend auf die Zulieferer. Dies macht es erforderlich, dass Unternehmen enger zusammenarbeiten und fördert die Entstehung komplexer Logistiknetzwerke.
Um den damit einhergehenden Anforderungen an den Informationsaustausch zu begegnen, wurde 2009 das Projekt RFID-based Automotive Network (RAN) ins Leben gerufen. Die Initiative hat sich zum Ziel gesetzt, eine standardisierte Architektur für eine effiziente Materialflusssteuerung entlang der gesamtem Supply Chain zu schaffen. Kernkomponente dieser Architektur ist der Infobroker, eine Informationseinheit, die über Auto-ID-Technologie erfasste Daten aus dem Materialfluss automatisiert an Teilnehmer der Supply Chain kommuniziert. Die Abschlussarbeit beschäftigt sich in Kooperation mit der IBS AG, einem Softwareunternehmen und Konsortialpartner im Projekt, mit einem Teilbereich des Austausches von Warendaten.
Zunächst werden theoretische Grundlagen geschaffen, indem auf Merkmale einer Supply Chain eingegangen und anschließend Standardisierungsbestrebungen beschrieben werden. Um den Bezug zum Projekt herstellen zu können, wird im Supply Chain Kapitel näher auf die Automobilindustrie und Trends in diesem Sektor eingegangen. Im Bereich der Standardisierung werden Standards im elektronischen Datenaustausch vertiefend dargestellt, um auch hier eine Überleitung zum Infobroker-Konzept zu schaffen. Im Analyseteil werden zu Beginn Projekte mit ähnlicher Problemstellung wie bei RAN vorgestellt und durch die Beschreibung von Gemeinsamkeiten und Unterschieden ein Bezug hergestellt. Daraufhin werden anhand von Projektdokumenten Anforderungen an das System beschrieben und mehrere Modelle zur Problemstellung entworfen. Mit Rich Pictures werden die IST-Problematik und der SOLL-Zustand zunächst beschrieben. Darauf aufbauend wird der Fluss von Warendaten zwischen zwei Unternehmen veranschaulicht und die Funktion des Infobrokers beim Informationsaustausch verdeutlicht. Ziel ist die Schaffung eines Verständnisses für die Herausforderungen des Projektes und wie die vorgeschlagenen Konzepte der RAN-Initiative zur Optimierung einer Automotive Supply Chain beitragen können.
Das fotorealistische Rendering von Fell ist ein oft gesehenes Problem in der Computergrafik und wird besonders bei Animationsfilmen häufig gebraucht. In dieser Arbeit werden zwei Beleuchtungsmodelle, ursprünglich zum Rendern von menschlichen Haaren, vorgestellt. Dies ist zum einen das Modell von Marschner et al. aus dem Jahr 2003, welches als Grundlage für viele neuere Modelle gilt, sowie das Modell von d’Eon et al. aus dem Jahr 2011. Beide Modelle werden innerhalb eines Pathtracers, welcher globale Beleuchtung simuliert, implementiert. Es werden die Besonderheiten von Haar-Fasern aus Fell im Gegensatz zu menschlichen Haar-Fasern aufgezeigt und folglich erläutert, warum die präsentierten Modelle auch für viele Fellarten genutzt werden können. Dabei liegt der Fokus auf einer realistischen visuellen Darstellung. Zusätzlich wird die Performance beider Modelle verglichen und Verbesserungsvorschläge durch die Nutzung von zylinder förmigen Schnittpunktobjekten für den Pathtracer gegeben und anhand der Implementation evaluiert.
Ziel der Bachelorarbeit war die Evaluation und Optimierung von verschiedenen Eye-Tracking Algorithmen für die subpixelgenaue Bestimmung der relevanten Merkmale bezüglich Genauigkeit. Die extrahierten Merkmale sind das Pupillen- und Glintzentrum. Die Algorithmen sind mit preiswerten Kameras einsetzbar. Es wurde ein synthetisches Modell des Auges modifiziert und verwendet, mit dem die Methoden mit bekannter Ground Truth evaluiert wurden.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Diese Bachelorarbeit behandelt die Zusammenführung der bereits vorliegenden Winkelrekonstruktions- und Simulationskomponente und erweitert diese mit Funktionen, um die Durchführung von systematischen Tests zu ermöglichen. Hierzu wird die Übergabe von Bildern aus der Simulationskomponente an die Winkelrekonstruktionskomponente ermöglicht. Des weiteren wird eine GUI zur Testlaufsteuerung und Parameterübergabe sowie eine Datenbankanbindung zur Speicherung der verwendeten Einstellungen und erzeugter Daten angebunden. Durch die Analyse der erzeugten Daten zeigt sich eine ausreichende durchschnittliche Präzision von 0.15° und eine maximale Abweichung der einzelnen Winkel von 0.6°. Der größte Gesamtfehler beläuft sich in den Testläufen auf 0.8°. Der Einfluss von fehlerhaften Parametern hat von variable zu Variable unterschiedliche Auswirkungen. So verstärkt ein Fehler in Höhe den Messfehler um ein vielfaches mehr, als ein Fehler in der Länge der Deichsel.
Diese Arbeit zeigt die Verwendung einer lokalen Linespace Datenstruktur, welche auf Basis eines bestehenden GPU-basierten Raytracers mit globa- ler Linespace Datenstruktur konzipiert und implementiert wird. Für jedes Szenenobjekt wird ein N-Tree generiert, dessen Knoten jeweils einen Line- space besitzen. Dieser speichert in seinen SchäftenInformationen über exis- tierende Geometrie. Ein Schaft stellt ein Volumen zwischen zwei Flächen auf der Knotenaußenseite dar. Dies ermöglicht bei der Strahlverfolgung ein schnelleres Überspringen leerer Räume. Identische Objekte können auf bereits berechnete Linespaces zurückgreifen, wodurch der Speicherbedarf um bis zu 94,13% und die Initialisierungszeit der Datenstruktur um bis zu 97,15% vermindert werden kann. Aufgrund der lokalen Zugriffsmöglich- keiten könnendynamische Szenen visualisiertwerden. Dabei ist ebenso ein Anstieg der Qualität zu beobachten.
Ziel dieser Bachelorarbeit war es, in die Musiknoten-Erkennungs Software AudiVeris eine Bildvorverarbeitung einzubauen, damit auch aus fehlerbehafteten Notenbildern Daten extrahiert werden können. Der Ablauf startet mit einer Binarisierung durch ein regionales Otsu Verfahren. Daraufhin wird das Notenblatt nach etwaigen Krümmungen abgesucht, wie sie z.B. eine Buchfalz verursachen würde. Dazu wird die Hough-Transformation zur Linienfindung und der K-Means-Algorithmus zur Cluster-Detektion verwendet. Aufbauend wird das Notenbild unter Benutzung der gefundenen Krümmung geebnet.
Erweiterung der Konzeption und Implementierung einer Screening Applikation für mobile Endgeräte
(2014)
In dieser Bachelorarbeit werden ein bereits existierendes, generisches Konzept und ein existierender Prototyp für eine Smartphone Applikation zur Aufnahme,Überwachung und Dokumentation von äußerlichen Symptomen oder Betrachtungenrnam menschlichen Körper weiterentwickelt. Die bestehenden Funktionalitätenrnwerden anhand einer Analyse des bisherigen Prototypen ergänzt. Es werden das Konzept sowie dessen Funktionsbausteine, die im bestehenden Prototyp in der Android-Plattform implementiert wurden, auf Schwächen untersucht undrnerweitert. Darüber hinaus werden Optimierungs- und Erweiterungsmöglichkeiten für weiterführende Projekte aufgezeigt.
Mit der rasant fortschreitenden Entwicklung von Informatiksystemen und Algorithmen ist die Erfassung und Verarbeitung von Daten in immer größeren Umfang möglich. Verschiedene Initiativen haben sich dadurch motiviert zur Aufgabe gemacht, über die daraus resultierenden Gefahren für die Persönlichkeitsrechte und die Meinungsfreiheit aufzuklären. Dies soll einen bewussteren Umgang mit personenbezogenen Daten zur Folge haben. Zum Schutz der Grundrechte bedarf es aufgeklärter und informierter Nutzer, diese Aufgabe können die Initiativen allerdings nicht alleine leisten. Die staatlichen Bildungseinrichtungen und besonders die Schulen, stehen hier in der Pflicht sich an der Lösung des Problems zu beteiligen. Um ihrem Bildungsauftrag im vollen Ausmaß gerecht zu werden, bedarf es struktureller Änderungen, wie der Änderung von Lehrplänen. Solange diese allerdings nicht erfolgt sind, muss in und mit den gegebenen Strukturen gearbeitet werden. Eine Plattform dafür bietet der schulische Informatikunterricht.
Die vorliegende Arbeit stellt eine Unterrichtsreihe zur Behandlung von Datenschutz und Datensicherheit vor. Es wurde dabei ein kontextorientierter Ansatz nach Vorbild von Informatik im Kontext gewählt. Die Reihe Smartphone-Applikationen beinhaltet über die genannten primären Themen der Unterrichtsreihe hinaus weitere Dimensionen, die bei der Nutzung von Smartphones auftreten. Durch den direkten Bezug zum Alltag der Schüler soll dabei eine möglichst hohe Betroffenheit erzeugt werden. Dadurch sollen die Schüler ihr bisheriges Nutzungsverhalten überdenken und im besten Fall ihren Altersgenossen als Vorbilder dienen. Die Prüfung der Durchführbarkeit der Reihe im Unterricht steht noch aus. Diese war im Rahmen dieser Arbeit, begründet durch die begrenzte Bearbeitungszeit, nicht zu leisten.
In dieser Arbeit präsentieren wir Methoden zum Schätzen von Kamerabewegungen einer RGB-D-Kamera in sechs Freiheitsgraden und dem Erstellen von 3D-Karten. Als erstes werden die RGB- und Tiefendaten registriert und synchronisiert. Nach der Vorverarbeitung extrahieren wir FAST-Merkmale in zwei aufeinander folgenden Bildern. Daraus wird eine Korrespondenzmenge erstellt und Ausreißer werden herausgefiltert. Anschließend projizieren wir die Korrespondenzmenge in 3D, um die Bewegung aus 3D-3D-Korrespondezen mittels Least-Squares zu bestimmen. Weiterhin präsentieren wir Methoden, um 3D-Karten aus Bewegungsschätzungen und RGB-D-Daten zu erstellen. Dafür benutzen wir das OctoMap-Framework und erstellen wahlweise auch inkrementelle Karten aus Punktewolken. Anschließend evaluieren wir das System mit dem weit verbreiteten RGB-D-Benchmark.
Der Zweck dieser Bachelorarbeit ist es Lisa - dem Roboter, der von der Arbeitsgruppe Aktives an der Universität Koblenz-Landau, Campus Koblenz, für die Teilnahme an der @home Liga des Robocups entwickelt wurde - das Zeichnen beizubringen. Dies erfordert die Erweiterung des Robbie Software Frameworks und den Einsatz der Hardware-Komponenten des Roboters. Unter Beachtung eines möglichen Einsatzes für die Open Challenge des RoboCups @home, sind die Ziele ein Blatt Papier mit Lisas optischem Sensor, einer Microsoft Kinect, zu erkennen und auf diesem zu Zeichnen unter Benutzung des Neuronics Katana Roboterarms. Zusätzlich muss eine Stifthalterung für den Gripper des Arms konstruiert werden.
Beschrieben in dieser Arbeit sind die notwendigen Schritte, um eine Zeichenvorlage in Bewegungen des Arms umzuwandeln, welche wiederum dazu führen, dass ein Bild gezeichnet wird durch den am Arm montierten Stift auf dem Blatt Papier, welches vom optischen Sensor durch Bilderkennung entdeckt wurde. Ermöglicht wurde es ein Object, welches aus einer beliebigen Anzahl gerader Linien besteht und aus einer SVG-Datei gelesen wird, auf ein weißes Blatt Papier zu zeichnen, das auf einer dunkleren Oberfläche erkannt wird, umgeben von anderen Gegenständen und Texturen.
Im Zeitalter des Web 2.0 gewann das Internet als Plattform, um Dienstleistungen anzubieten oder Waren zu verkaufen in Unternehmen immer mehr Aufmerksamkeit. Vor allem zur Kundenbetreuung können Kundenforen ein nützliches Instrument für Unternehmen sein. Durch die Bereitstellung von Kundenforen können Unternehmen drastisch ihre Supportkosten reduzieren. Dennoch ist es oft schwierig für Unternehmen, den Erfolg von Kundenforen zu messen. In der Forschungsliteratur sind die Determinanten für den Erfolg selten untersucht worden. Die vorliegende Bachelorarbeit beabsichtigt diese Forschungslücke durch Anwendung des Modells von Lin und Lee zur Erfolgsmessung in Online-Communities auf Kundenforen zu schließen. Zusätzlich werden Kennzahlen zur Messung des Erfolgs für dieses Modell diskutiert. Die Auseinandersetzung mit dem Thema führt zu dem Ergebnis, dass das Modell von Lin und Lee zum Großteil auf Kundenforen anwendbar ist, in der Theorie wie auch in der Praxis. Das wurde am Beispiel des 1&1 Kundenforum belegt. Die im theoretischen Teil dieser Arbeit gefundenen Kennzahlen waren genauso in der Praxis relevant. Nichtsdestotrotz sollten sich zukünftige Forschungen stärker auf monetäre Kennzahlen konzentrieren, um den Erfolg von Kundenforen auch finanziell bewertbar zu machen.
Zusammenfassung
Die vorliegende Arbeit befasst sich mit der Frage, welche Erfolgsfaktoren für das Social Media Marketing gelten. Untersucht werden hierfür deutsche Startup- Unternehmen. Die Untersuchung erfolgt anhand von zehn semistrukturierten Experteninterviews, die mittels einer qualitativen Inhaltsanalyse ausgewertet werden. Die Ergebnisse zeigen, dass es vielfältige Erfolgsfaktoren gibt und Unternehmen bei der Umsetzung von Social Media Marekting Maßnahmen in vielen Bereichen unterschiedlich vorgehen. Als wichtige Erfolgsfaktoren gelten dabei eine passgenaue unternehmensspezifische Social Media Strategie mit einer klaren Zielformulierung, eine Integration des Social Media Marketings in die Unternehmensstrategie, Offenheit gegenüber neuen Social Media Trends, Glaubwürdigkeit und Reputation, eine Beachtung des Datenschutzes, der richtige Umgang mit Kritik, die Nutzung von Social Media als Marktforschungsinstrument und eine langfristige Social Media Strategie. Die Aussagekraft der Ergebnisse ist jedoch nicht überzubewerten, da es sich hierbei um eine qualitative Studie mit einer geringen Reichweite handelt und nur einzelne Fälle untersucht. Weitere Forschungen zu den Erfolgsfaktoren könnten anhand von quantitativen Studien oder Gruppendiskussionen erfolgen, bei denen Experten oder User bzw. Kunden befragt werden. Eine weitere Möglichkeit bietet sich durch die qualitative Untersuchung des User-generated-contents.
Normen entstehen in jeder Gemeinschaft. Sie sind in der Lage, abseits von Gesetzbüchern und Vertragswerken, für ein rücksichtsvolles Zusammenleben zu sorgen. Dabei haben sie die Fähigkeit zur Anpassung und sind das Durchgangsprodukt eines sich ewig erneuernden Widerstreits zwischen erfahrungsbasierten Erwartungen, die das Handeln bestimmen und Rückmeldungen der Außenwelt, die zu neuen Erfahrungen werden. Gesetzestexte dagegen, die ursprünglich den Versuch darstellten, solche Normen mit der weitesten Verbreitung, festzuhalten und somit das Leben des Einzelnen zu vereinfachen, besitzen durch ihre Statik eine viel geringere Rückkopplung; werden darüber hinaus, sobald der Urzusammenhang mit Normen weitgehend vergessen ist, zum Spielball von Machtinteressen und entfremden sich so vom Normempfinden des Einzelmenschen. Für Normen gilt das "Panta rhei", welches voraussetzt, daß lebendige Einzelwesen ihre Träger sind. Der Versuch die Norm abzutrennen, bspw. durch Niederschrift muss also immer ein Versuch bleiben, der höchstens angenähert zum Erfolg führt. Nicht zuletzt wegen der Unschärfe die dadurch entsteht, daß obwohl wir von einer Norm sprechen, in jedem Einzelnen dem sie bekannt ist, doch wieder eine Abwandlung der generellen Norm existiert und bei ihm, auch nur auf den Zeitpunkt der Erhebung beschränkt, existiert. Somit ist die Simulation von Normentwicklung sicherlich eine schwierige Aufgabe, die allerdings bei Erfolg wichtige Aufschlüsse über das Menschenwesen in der Gesellschaft bringen kann. Wenn das Verständnis über Selbstregulierung dadurch verbessert werden kann, besteht die Hoffnung einen Impuls dafür zu geben, Selbstregulierung auch häufiger den Vortritt vor Regulierung zu lassen. Die Aufgabe, Normentwicklung zu simulieren, stellt sich das EMIL Projekt: "The main technological aim of the project is to construct a simulator for exploring and experimenting norm-innovation. The forecasted impact of the project is to contribute to the regulation of ecommunities by handing out a simulator for the emergence of new norms in complex social systems."1 "While the simulator will be designed as a general-purpose tool, some specific study cases will be selected as so to provide the necessary grounding parameters. Eine agentenbasierte Simulation, die für jeden Agenten über ein komplexes Gedächtnis von bereits gehaltenen Normen verfügt und Lernalgorithmen, die nach Interaktion einen Normenwandel einleiten, sollen das Ziel erreichbar machen. Die vorliegende Arbeit ist eine der ersten Implementationen mit EMIL und soll Impulse für eine Verbesserung der Simulationssoftware geben. Das hier vorgestellte Szenario basiert auf dem Verhalten von Mikrofinanzgruppen.
In dieser Bachelorarbeit wurde ein Tangible Augmented Reality Spiel für Android entwickelt, das einen Mehrwert gegenüber herkömmlichen Computer oder Augmented Reality Spielen haben soll. Der Hauptteil der Arbeit erklärt das Spielkonzept, Entwicklung und die Evaluation des Spiels. Bei der Evaluation wurde das Flow-Erleben, als Maß für den Spielspaß, druch Nutzertest ausgewertet und das erstellte Spiel mit anderen Smartphone-Spielen verglichen. Außerdem werden Augmented Reality, Tangible User Interface und Tangible Augmented Reality vorgstellt und deren Vor- und Nachteile erläutert. Die Geschichte von Augmented Reality wird auch vorgestellt.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Social Network of Business Objects (SoNBO) ist ein Konzept, um im Unternehmen in heterogenen Systemlandschaften verteilte Informationen zu aggregieren und gesammelt auf einer Benutzeroberfläche zur Verfügung zu stellen. Die zentrale Idee ist dabei, die Unternehmensinformationen als Netzwerk (auch: Graph) zu verstehen. Es gibt bereits einen SoNBO-Explorer, der die Informationen eines Customer Relationship Management-Systems (CRM-System) integriert. Die Herausforderung bei der Konfiguration einer solchen Anwendung besteht darin, das Unternehmensnetzwerk zu identifizieren, und auf diese Weise heraus zu finden, wie die gespeicherten Daten im Unternehmen verknüpft sind. Dafür ist ein Tool hilfreich, das das Unternehmensnetzwerk visualisieren kann. In dieser Arbeit wird ein selbstentwickeltes Tool (SoNBO-Graph-App) als Prototyp vorgestellt, das diese Visualisierung ermöglicht. Mit dieser Anwendung kann die Konfiguration des Netzwerks im SoNBO-Explorer bestehend aus den zusammengeführten Daten unterstützt werden, indem diese Konfiguration auf graphischer Ebene durchgeführt wird. Der Prototyp ist an zwei verschiedenen Datenbanken eines Customer Relationship Management (CRM) Systems angebunden und ermöglicht die Aggregation dieser Daten, sodass sie in einer Übersicht zusammenhängend als Graph dargestellt werden. Dadurch erhält der Anwender einen besseren Überblick und ein Verständnis über den Zusammenhang der unterschiedlichen Daten. Diese Arbeit ist Teil des Langzeitforschungsprojekts SoNBO, dessen Ziel ein Konzept zur Integration von Informationen verschiedener geschäftlicher Anwendungssysteme ist.
Der Markt der mobilen Endgeräte entwickelt sich schnell weiter und es kommen schon Kinder im frühsten Alter mit solchen Technologien in Berührung. Daher ist es wichtig, Kinder richtig an die Geräte heranzuführen. Von Vorteil wäre eine Einbindung von Smartphones und Tablets, im Bezug auf den Lernprozess, in den Unterricht. Die vorliegende Arbeit behandelt deshalb das Konzept einer Lernspielapp, die durch Pädagogen konfiguriert werden kann. Die Evaluation soll Aufschluss über die Motivation der Kinder geben und die Aufgeschlossenheit der Pädagogen gegenüber neuen Medien ermitteln.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluierung eines kollaborativen Multiplayer-Games für Kleinkinder für mobile Geräte.
Das Ziel dieser Bachelorarbeit war es, herauszufinden in wie weit sich mobile Geräte wie etwa Tablet-PCs und Smartphones für das Zusammenspiel von Kindern eignen. In diesem Rahmen wurden die für die Entwicklung eines solchen Spiels relevanten Aspekte recherchiert und darauf aufbauend ein Spiel entwickelt, welches anschließend von Kleinkindern getestet wurde.
Diese Bachelorarbeit befasst sich mit der Konzeption, Implementierung und Evaluation eines Jump'n'Run Spiels und der Betrachtung des Einflusses von Erfolgssystemen auf Spieler. Im Spiel Age of Tunes spielt man Bardur, den bartlosen Barden und muss versuchen, die verfluchten magischen Geschöpfe in der Welt Harmonica zu befreien. Der Schwerpunkt der Arbeit lag bei der sauberen Konzeption und schrittweisen Entwicklung des Spiels, ansprechender graphischer Qualität, Einbindung von Gegnern, einem Minispiel und der Betrachtung von Auswirkungen eines Erfolgssystems auf Spieler. In einer abschließenden Evaluation konnten das Spiel und das Verhalten bezüglich der Erfolge bewertet werden.
In dieser Bachelorarbeit wird die Frage behandelt, ob ein Jump'n Run-Spiel mit Sensorensteuerung für Android-Geräte sinnvoll ist. Hierzu wurde ein Spiel entwickelt, das in unterschiedlichen Level einmal mit und ohne Sensoren steuerbar ist. In einer zweiten Version wird das Spiel komplett anhand von Sensoren gesteuert, damit man später die Steuerungen vergleichen kann. Es wird erklärt, wie das Spiel geplant, entworfen und untersucht wurde. Zudem wird geprüft, ob es schon Spiele mit Sensorensteuerung generell gibt. Die Engine, mit der das Spiel entwickelt wurde, wird ebenfalls vorgestellt. Abschließend erfolgt die Auswertung eines dafür ausgearbeiteten Nutzertests über die Spieltauglichkeit des Spiels hinsichtlich der Steuerung.
Diese Arbeit behandelt die Konzeption und Implementation eines Action-Rollenspiels mithilfe der Game Engine Unity. Im Rahmen einer Evaluation sollte das Spiel hinsichtlich der Bedienbarkeit der integrierten Steuerungsarten, der visuellen Überzeugung der Animationen und der Benutzerfreundlichkeit über zur Verfügung gestellte Hilfsmittel und Visualisierungen bewertet werden. Zusätzlich sollten Schwachstellen und Probleme im Spiel über offenes Feedback herausgefunden werden. Die Auswertung der Evaluation ergab, dass das Spiel im Hinblick auf die Bedienbarkeit und Benutzerfreundlichkeit zwar noch ausbaufähig ist, aber insgesamt einen guten Eindruck bei den Probanden hinterlassen hat.
Das Rendering-Verfahren des Ray-Tracings ermöglicht die realitätsnahe Umsetzung der Bildgenerierung einer modellierten Szene und ist aufgrund seiner Arbeitsweise in der Lage, optische Phänomene und komplexe Beleuchtungsszenarien darzustellen. Allerdings bedarf es bei der Bilderzeugung einer enormen Anzahl an Berechnungen pro Pixel, wodurch Realisierungen eines Ray-Tracers in der Praxis Ergebnisse erzielen, die weit unter der in der Computergraphik angestrebten Echzeitdarstellung von 60 Bildern pro Sekunde entfernt liegen. Aktuelle Modelle der Graphics Processing Unit (GPU) ermöglichen die hochgradige Parallelisierung der Ausführung von allgemeinen Berechnungen. Mit Hilfe der Graphik-API OpenGL wird diese Parallelisierung nutzbar gemacht und ein vollständig auf der GPU ausgeführter Ray-Tracer entworfen und realisiert. Der entwickelte Ansatz wird durch die Integration eines Uniform Grids - einer beschleunigenden Datenstruktur des Ray-Tracings - erweitert, woraus eine Steigerung der Performanz zu erwarten ist.
Ziel dieser Arbeit ist die Implementierung eines auf der GPU ausgeführten Ray-Tracers und die Erweiterung des Ansatzes durch die Verwendung eines Uniform Grids. Die Ermittlung der erzielbaren Leistung wird im Anschluss durchgeführt. Bei der Entwicklung und Implementierung werden mögliche Probleme bei der Umsetzung bezüglich der GPU-Programmierung aufgezeigt und analysiert.
Haushaltsroboter gewinnen in heutiger Zeit immer mehr an Bedeutung. Sie finden ihren Einsatz zum Beispiel beim Reinigen von Böden, beim Mähen des Rasens oder helfen bei der Überwachung in Gebäuden oder Außenanlagen. Der Mehrheit dieser Roboter fehlt allerdings etwas Entscheidendes, nämlich ein Gesicht.
In dieser Arbeit wird die Entwicklung eines virtuellen, austauschbaren Gesichtes festgehalten, das speziell für den Roboter Lisa der Arbeitsgruppe "Aktives Sehen" der Universität Koblenz entwickelt wurde. Psychologische Studien nach Krach u. a. (2008) haben hierzu gezeigt, dass die Ausstattung solcher Roboter mit Gesichtern die Aufmerksamkeit der Benuzter stärker bindet und ihnen zugleich mehr Intelligenz zugetraut wird.
Computergesichter oder auch Talkingheads finden ihren Einsatz nicht nur bei Robotern, sondern auch in Videospielen oder Animationsfilmen. Allerdings wird in diesen Bereichen die Bewegung und Mimik des Gesichtes meistens per Hand erstellt, was einen festen Bewegungsablauf liefert. Interessanter ist hier der Einsatz in barrierefreien Anwendungen. In diesem Bereich werden aus einem eingehenden Audiosignal die Phoneme extrahiert und den entsprechenden Visemen zugeordnet. Im Rahmen der vorliegenden Arbeit wird dieser Vorgang mit Hilfe des Text-to-Speech-Synthesizer Festival erzielt, wodurch sich die Bewegung der Lippen entsprechend des gegebenen Textes dynamisch verändert.
Aber nicht nur die korrekte Bewegung der Lippen spielt eine wichtige Rolle, sondern auch die Emotionen. Mit Hilfe einer bestimmten Emoticon-Arithmetik, die dem zu synthetisierenden Text beigefügt wird, ist die Visualisierung der Emotionen möglich.
Diese Arbeit stellt den Faltungshall vor, ein Verfahren, das es ermöglicht, in neutral klingenden Räumen aufgenommenes Audiomaterial mit realistisch klingendem Nachhall zu versehen. Dabei wird vor allem auf die Möglichkeit eingegangen, den Effekt auf einer GPU mit Hilfe von OpenCL zu berechnen, um die hohe Parallelisierbarkeit des Problems zu seiner Lösung zu nutzen. Ziel ist es, ein VST-Plugin entwickeln zu können, das den GPU-beschleunigten Faltungsalgorithmus in verschiedener Audiosoftware nutzbar macht.
Entwicklung eines augmentierten Montageszenarios mit Lego-Bausteinen für die Microsoft HoloLens
(2017)
Augmented Reality ist schon seit einigen Jahren in verschiedenen Formen verfügbar. Durch Fortschritte in der Technik können nun auch kompakte Augmented Reality Brillen hergestellt werden, wodurch sich viele neue Möglichkeiten der Interaktion und Anwendung von Augmented Reality eröffnen.
Diese Arbeit beschäftigt sich mit der Microsoft HoloLens und den Möglichkeiten, welche die Brille für Verbraucher und Industrie bieten kann. Im Rahmen dieser Arbeit wurde eine interaktive und augmentierte Anwendung entwickelt, um die Grenzen und Möglichkeiten der Microsoft HoloLens zu bewerten. Dazu wurde exemplarisch ein Montageszenario nachgestellt, bei dem ein Modell aus Lego-Bausteinen zusammengesetzt wird. Die HoloLens zeigt dabei schrittweise an, wo die nächsten Bausteine platziert werden sollen. Dabei stellte sich heraus, dass die HoloLens schon heute Vorteile bei der Montage bietet und gut zur Unterstützung von Arbeitsschritten verwendet werden kann, es wurden allerdings auch einige Schwächen deutlich.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluation einer spielerischen Augmented Reality-Anwendung für mobile Endgeräte. Aufbauend auf dem ARCore SDK wurde das Spiel pARcours entwickelt, bei dem der Spieler virtuelle Objekte in der realen Umgebung platzieren kann, um sich so seinen eigenen Parcours aufzubauen. Dieser muss mit einem ebenfalls virtuellen Flugobjekt absolviert werden. Der Schwerpunkt bei der Umsetzung des Spiels lag auf der Interaktion mit den virtuellen Objekten und deren Kollisionserkennung mit realen Oberflächen. Weiterhin wurden verschiedene Eingabemöglichkeiten für das Aufbauen der Parcours und die Steuerung der Flugobjekte untersucht. Durch eine abschließende Evaluation konnten sowohl das Spiel und die verschiedenen Eingabemethoden als auch ARCore in Bezug auf die Entwicklung von Augmented Reality-Anwendungen bewertet werden.
Die RoboCup Rescue Liga wurde mit dem Ziel eines internationalen Austauschs zur Entwicklung von Rettungsrobotern gegründet. In Katastrophenregionen sollen diese Roboter verschüttete Opfer orten, deren gesundheitliche Verfassung erkennen und diese Informationen rechtzeitig an Rettungskräfte weitergeben.
An der Universität Koblenz wird seit mehreren Jahren der Rettungsroboter Robbie entwickelt. Über die gezielte Ansteuerung von Sensoren kann er Informationen über seine Umgebung sammeln und mit Hilfe dieser Informationen autonom in unbekannten Regionen agieren. Dafür erstellt Robbie eine 2D-Karte seiner Umgebung, um anhand dieser Karte navigieren und sich selbst lokalisieren zu können. Diese Karte stößt allerdings bei der Navigation über unebenes Gelände (wie z.B. Geröllhaufen) und spätestens in mehrschichtigen Katastrophengebieten auf ihre Grenzen, weswegen eine 3D-Kartierung benötigt wird.
Anhand des RoboCup Rescue Szenarios wird im Rahmen dieser Bachelorarbeit ein 3D-Kartierungsalgorithmus implementiert und hierfür die Probleme der 2D- und 3D-Kartierung ausführlich untersucht.
Im Verlauf der vergangenen Jahre wurden unter der Leitung von Dr. Merten Joost basierend auf Microcontrollern der ATMega-Reihe verschiedene Projekte zur Ansteuerung der Peripheriegeräte eines Computers realisiert. Hierzu zählen unter anderem die Abfrage einer Tastatur, die Ausgabe von Audio- und Videosignalen sowie eine Programmierumgebung mit eigener Programmiersprache. Ziel dieser Arbeit ist es, die gesammelten Projekte zu verbinden, um als Ergebnis einen eigenständigen "Homecomputer" zu erhalten, der per Tastatur angesteuert werden können soll und über eine Audio- und Videoausgabe verfügen soll. Dabei wird eine SD-Karte als Speichermedium dienen, das per Tastatureingabe über eine Art Shell verwaltet werden kann.
In den letzten Jahren ist eine steigende Verbreitung von Touchscreen-Geräten zu verzeichnen. Ihre Bedienung unterscheidet sich grundlegend von der mit Maus und Tastatur. Durch die Eingabe mit Gesten oder mehreren Fingern kann es schwierig sein den Aktionen eines Anderen zu folgen. Probleme entstehen durch die Verdeckung des Bildschirms mit der Eingabehand. Sieht man nur den Bildschirminhalt, zum Beispiel bei einer Videoübertragung, gehen Informationen über die Eingabe verloren.
In dieser Arbeit wird ein System entwickelt, das die kollaborative Arbeit an voneinander entfernten Touchscreen-Geräten verbessern soll. Dazu wird aus den Tiefendaten eines Kinect Sensors eine grafische Repräsentation der Eingabehand erstellt. Durch Einblendung dieser Visualisierung soll es einem Anwender erleichtert werden den Eingaben eines Anwenders zu folgen. Bedienkonzepte, wie zum Beispiel Gesten, sollen dadurch besser vermittelt werden. Außerdem soll so die Möglichkeit geschaffen werden, Informationen über eine gemeinsame Problematik effizienter auszutauschen. Deshalb wurde ein Testsystem mit zwei Arbeitsplätzen entwickelt. Darin übernimmt ein Anwender die Rolle des Erklärenden und führt einen zweiten Anwender, den Ausführenden, durch verschiedene Testszenarien. Hierbei stehen ihm bei einem Teil der Aufgaben die Visualisierung der Hand zur Verfügung, während er in anderen Aufgaben nur verbal mit seinem Gegenüber kommunizieren kann.
Im Rahmen einer Evaluation wird das System auf seine Effizienz zur Bedienung von Touchscreen-Systemen überprüft. Des Weiteren wird untersucht, inwieweit die grafische Qualität den gestellten Anforderungen genügt, um einen Mehrwert für die Anwendung zu bieten.
Diese Bachelorarbeit beschäftigt sich im Wesentlichen mit dem Entwurf und der Implementierung einer Manöverdatenstruktur für Car-like Robots. Diese Datenstruktur soll die Planung von fahrbaren Wegen mit kontinuierlicher Lenkwinkeländerung ermöglichen. Dabei stehen entsprechende Kurvenmanöver, die aus zwei Klothoiden und einem Kreisbogen bestehen, im Vordergrund.
Zudem liegt ein Schwerpunkt auf der Entwicklung eines Konzepts zur Berechnung einer Hülle für entsprechende Manöver. Diese Hülle umschließt die Fläche, die das Fahrzeug bei der Ausführung eines Manövers einnimmt. Die Hülle ermöglicht es, beim koordinierten Fahren mit mehreren Fahrzeugen Kollisionsfreiheit zu garantieren. Auf der Manöverdatenstruktur aufbauend wird im Rahmen dieser Bachelorarbeit zudem ein Planungsmodul entworfen und implementiert, das zu vorgegebenen groben Wegen fahrbare, aus Manövern zusammengesetzte Wege erzeugt.
Das Kommunikationsverhalten hat sich in den letzten Jahren durch die Smartphonenutzung verändert. Die Nutzer kommunizieren oft nur noch über den elektronischen Weg. Die persönliche Kommunikation, außerhalb des Smartphones, nimmt ab. Das Umfeld gerät unterdessen in Vergessenheit. In der vorliegenden Arbeit werden verschiedene Spielkonzepte entwickelt, welche die Kommunikation steigern sollen. Realisiert wird der Ansatz in einer prototypischen Stadtführer-App, nach den Spielkonzepten von "Scotland Yard" und "Schnitzeljagd". Während der Nutzung müssen die Spieler verschiedene Aufgaben lösen. Welches Spielkonzept sich in Bezug auf die Kommunikationsförderung am besten eignet, wird in einer Evaluation analysiert.
Das Ziel dieser Arbeit ist die Einarbeitung, Konzeption, Implementierung und Evaluation einer interaktiven Spiele-Applikation unter Android. Das Gamegenre der App ist ein 2D-Jump ’n’ Run Side-Scroller, dessen grafische Umsetzung auf den vier Elementen Erde, Feuer, Wasser und Wind basiert. Die Anwendung soll über klassische Funktionen eines Jump ’n’ Run Spiels verfügen und es dem Spieler ermöglichen die vier Spielwelten zu überwinden um ins Ziel zu finden. Die Basis der Umsetzung bilden Unity Engine und Adobe Photoshop. Ein Nutzertest stellt grundlegende Fragen zur Anwendung sowie spezifische Fragen zur Forschungsfrage, die anschließend bewertet werden. Die Forschungsfrage prüft den Zusammenhang zwischen Spaßfaktor und Farbwahrnehmung bei dem Spielen der App. Dargestellt durch die natürlichen Farbkombinationen der vier Elementen. Abschließend werden Erweiterungsmöglichkeiten und Zukunftsaussichten diskutiert.
In dieser Arbeit wird eine interaktive Applikation für das Android OS entwickelt. Bei der Applikation handelt es sich um ein Virtual-Reality-Spiel. Das Spiel gehört zum Ego-Shooter-Genre und spielt in einem Weltraumszenario. Durch den Einsatz eines Stereo-Renderers ist es möglich, das Spiel in Kombination mit einer Virtual-Reality-Brille zu spielen.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer interaktiven Applikation unter Android, welche das Spielen eines Kartenspiels ermöglicht. Exemplarisch wurde das hebräische Spiel Yaniv implementiert. Schwerpunkt ist die Herausarbeitung benötigter Hintergrundkomponenten und die dazugehörige Umsetzung in jener Applikation. Benötigte Spielprozesse werden durchleuchtet und eine mögliche Lösungsvariante aufgezeigt.
Diese Bachelorarbeit beschäftigt sich mit dem Entwurf und der Implementation einer virtuellen Realitätserfahrung. Ziel ist es, zwei Fragen zu beantworten: Ist es möglich, eine immersive virtuelle Anwendung zu erschaffen, die hauptsächlich Impulse und Trigger benutzt, um Angst und Schrecken bei den Benutzern zu erzeugen? Zweitens, ist diese Immersion ausreichend, die Benutzer so zu illusionieren, dass sie die virtuelle Welt für die Reale halten. Zur Erschaffung dieser Erfahrung wurde die Programmierumgebung Unity3D sowie Visual Studios 2017 verwendet. Um festzustellen, ob diese VR-Anwendung tatsächlich immersiv für den Anwender ist, wurde ein Experiment mit sieben Probanden durchgeführt. Nach der Spieltestung wurden die Probanden zu Ihren Erfahrungen mittels eines Fragebogens befragt. Es konnte dadruch gezeigt werden, dass diese Anwendungen Tendenzen zur Immersion aufweisen. Jedoch waren sich die Benutzer der Situation, in der sie sich befanden, stets bewusst. Daraus lässt sich schlussfolgern, dass die Immersion nicht stark genug war, um die Probanden bezüglich der virtuellen und realen Welt zu täuschen.
Diese Bachelorarbeit befasst sich mit der Entwicklung und Implementierung einer Gesichtserkennenden Software, die in der Lage ist Personenströme zurnerkennen und zu protokollieren. Dabei wird, ausgehend von den speziellen Anforderungen der Bildverarbeitung die entstandene Softwarearchitektur und deren Implementation vorgestellt. Zusätzlich wird zur Implementation ein Webinterface entwickelt welches die Verwaltung der Daten vereinfachen soll. Abschließend werden weitere Verfahren der Gesichtserkennung vorgestellt und gegen das eingesetzte Verfahren verglichen. Zum Schluss wird die implementierte Software evaluiert.
Das Thema dieser Arbeit ist die Entwicklung einer hardwarebeschleunigten Einzelbildkompression zur Videoübertragung. Verfahren zur Einzelbildkompressionrn existieren bereits seit längerer Zeit. Jedoch genügen die gängigen Verfahren nicht den Anforderungen der Echtzeit und Performanz, um während einer Videoübertragung ohne spürbare Latenz zum Einsatz zu kommen. In dieser Arbeit soll einer der geläufigsten Algorithmen zur Bildkompression auf Parallelisierbarkeit, unter zu Hilfenahme der Grafikkarte, untersucht werden, um Echtzeitfähigkeit während der Kompression und Dekompression von computergenerierten Bildern zu erreichen. Die Ergebnisse werden evaluiert und in den Rahmen aktueller Verfahren parallelisierter Kompressionstechniken eingeordnet.
Zur Zeit ist die Microsoft Kinect in verschiedensten Anwendungsbereichen populär, da sie sowohl günstig als auch genau ist. Für die Steuerung des Mauszeigers ist sie jedoch noch ungeeignet da die Skelettdaten zittern. In meinem Ansatz wird versucht mit gängigen Methoden aus der Bildverarbeitung die Mauszeiger Position zu stabilisieren. Dabei wird als Input die Farbkamera der Kinect dienen. Aus den verschiedenen ermittelten Positionen soll anschließend eine finale Position bestimmt werden. Die rechte Hand steuert dabei die Maus. Eine einfache Klick Geste wird ebenfalls entwickelt. In der Evaluation wird gezeigt ob dieser Ansatz eine Verbesserung darstellt.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Diese Arbeit beschreibt den Entwurf und die Umsetzung einer prototypischen Android-Applikation zum Dokumentieren von Reiserouten. Nach einer kurzen Einführung in die grundlegenden Aspekte des Reisens, der notwendigen Hilfsmittel sowie das Betriebssystem Android wird das Konzept und die Anforderungen an die Anwendung vorgestellt. Anschließend werden die Realisierung der Implementierung erläutert und die Ergebnisse der Evaluation offengelegt.
Entscheidungsverhalten unter Unsicherheit mit Berücksichtigung von Persönlichkeitseigenschaften
(2014)
Ziel dieser Bachelorarbeit war es herauszufinden, mit welchen Hilfsmitteln Entscheidungen unter Unsicherheit getroffen werden und welche Unterschiede es bei Personen mit verschiedenen Eigenschaften gibt. Die Ergebnisse sollten hauptsächlich den Entscheidungsprozess von Managern, Entrepreneuren und Personen mit großer Entscheidungskompetenz widerspiegeln. Zudem sollte gezeigt werden, dass unterschiedliche Persönlichkeitseigenschaften sich auf den Entscheidungsprozess auswirken.
How entrepreneurs become successful with their business ideas has been a topic of discussion within entrepreneurial research circles for many years. Business success has been related to psychological characteristics and many research findings have explained how people become entrepreneurs and furthermore, how they find success in regards to their business ventures. People always wanted to know what defines an entrepreneur and more importantly, what is needed to become a successful entrepreneur. Curious minds began to search for the recipe for success. Personality Traits have been researched for years, leading to the discovery of many diverse and distinct forms which are still recognized today. Researchers compared the Behavioral Approach or the analysis of demographical characteristics to success.
This raises the question of what an entrepreneur needs to become successful which is made more difficult due to the fact that entrepreneurship and who an entrepreneur is can be difficult do define exactly. Entrepreneurs are diverse and distinct individuals that each possess their own characteristics, behavior and reasons for starting a business. Many people assume that it is just someone who starts their own business. While partially correct, this only scratches the surface of what it is to be an entrepreneur.
This thesis answers the following three research questions: 1. Which personality traits were found in the almost sixty years of researching? 2. What triggers do entrepreneurs need for starting a new business? 3. Which factor makes the entrepreneur successful with their business idea? Also, reading the thesis, one may gain a better understanding of what entrepreneurship is, what defines an entrepreneur and what one needs to become a successful entrepreneur.
In this thesis the reviewing literature method developed by Wolfswinkel et al. (2011) was used to identify suitable literature and references for the main chapters. For that the five stages of the grounded-theory method for reviewing the literature were used in an iterative fashion. In step one inclusion and exclusion criterias for literature were defined. Then literature was searched matching the criterias of step one. In step three the samples were refined. Then in step four the found literature was analyzed and coded before the results of this research was presented in the following text. Many entrepreneurial personality traits were discovered and confirmed during the studies conducted over the last sixty years, these include but are not limited to Need for Achievement, Locus of Control, or risk taking propensity. Motivation is clearly the main trigger to start your own business. During the studies reasons were discovered of how and why an entrepreneur may become successful outside of posessing the right combination of traits. For example: having human, financial and social capital, an entrepreneurial behavior and the right economic conditions to start a business that will survive for more than five years.
Eine wachsende Werbe- und Informationsflut sowie eine eingeschränkte Kapazität der Informationsaufnahme stellen das Marketing in unserer heutigen Zeit vor eine Herausforderung. Das Marketing ist allgemein für den Erfolg eines Unternehmens von großer Bedeutung. Jedoch dominiert die klassische Marketinglehre, welche die Besonderheiten junger Unternehmen gerade im Hinblick auf deren Marketing unbeachtet lässt. Ein junges Unternehmen mit einer neuen Idee und einem neuen Produkt trifft auf einen bestehenden Markt mit Kunden und bereits etablierten Wettbewerbern. Auf eine Innovation bezogenen Gründungskontext stellt das eine besondere Herausforderung dar.
In der vorliegenden Bachelorarbeit werden zunächst die Teilbereiche der Thematik, das Entrepreneurship und das Marketing thematisiert. Grundlegend ist die Herausarbeitung der besonderen Eigenschaften von jungen Unternehmen, der sogenannten Liabilities. Die Bedeutung des Begriffs des Entrepreneurial Marketing wird durch die detaillierte Betrachtung des engen, wie auch des weiten Begriffsverständnis dargelegt. Anschließend wird durch die Gegenüberstellung der Unterschied zum klassischen Marketing verdeutlicht. Im Rahmen der Literaturanalyse wird der aktuelle Stand der Forschung dargelegt und die praktische Anwendung anhand der zentralen Ansätze näher betrachtet. Zu diesen Ansätzen zählen das Guerilla Marketing, Ambient Marketing, Sensation Marketing, Viral Marketing und das Ambush Marketing. Wie genau das Entrepreneurial Marketing in Form der zentralen Ansätzen konkret in einem Gründungsunternehmen Einsatz findet, wird durch eine qualitative Untersuchung in Form einer Case Study analysiert.
Der Case Study geht hervor, dass durch unkonventionelle Marketingmaßnahmen und einen geringen Mitteleinsatz eine große Wirkung erzielt werden kann. Das Entrepreneurial Marketing bietet demnach eine Alternative zum klassischen Marketing, die den besonderen Eigenschaften eines jungen Gründungsunternehmens Beachtung schenkt. Die vorliegende Arbeit zeigt somit, dass das Entrepreneurial Marketing unter Einsatz der zentralen Ansätze die Schwächen eines jungen Gründungsunternehmens in Stärken verwandelt und zur Überlegenheit gegenüber der Konkurrenz führen kann.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
Wikipedia is the biggest, free online encyclopaedia that can be expanded by any-one. For the users, who create content on a specific Wikipedia language edition, a social network exists. In this social network users are categorised into different roles. These are normal users, administrators and functional bots. Within the networks, a user can post reviews, suggestions or send simple messages to the "talk page" of another user. Each language in the Wikipedia domain has this type of social network.
In this thesis characteristics of the three different roles are analysed in order to learn how they function in one language network of Wikipedia and apply them to another Wikipedia network to identify bots. Timestamps from created posts are analysed to reveal noticeable characteristics referring to continuous messages, message rates and irregular behaviour of a user are discovered. Through this process we show that there exist differences between the roles for the mentioned characteristics.
World of Warcraft, das zu den populärsten gehörende Online-Rollenspiel, zieht täglich neue Besucher in eine phantasievolle Welt voller Abenteuer, die sie mit ihren selbst erstellten Avataren frei erkunden und dabei mit anderen Avataren in Kontakt treten können. Die Arbeit beschäftigt sich mit der Frage, ob sich eine Befragung in einer virtuellen Welt durchführen lässt, welche in der Realität eingesetzten Befragungsmethoden sich dabei auch in einer virtuellen Welt anwenden lassen und welche neuen Erkenntnisse dabei gewonnen werden können. Zunächst werden allgemeine Merkmale virtueller Welten umrissen auf der Grundlage des Buchs "Spielen in virtuellen Welten" von Stefan Wesener. Insbesondere werden Kommunikationsmöglichkeiten und ihre Besonderheiten in virtuellen Welten untersucht, die für eine "virtuelle" Befragung von Bedeutung sein könnten. Anschließend werden Methoden der empirischen Sozialforschung dargestellt, um eine theoretische Basis für die Durchführung einer Befragung in einer virtuellen Welt zu schaffen. Im dritten Kapitel wird der Versuch unternommen, die Erkenntnisse über Merkmale in virtuellen Welten und Besonderheiten der Kommunikation mit den Methoden der empirischen Sozialforschung zu verzahnen, um im Anschluss darauf sowohl eine qualitative als auch quantitative Befragung in einer virtuellen Welt durchführen zu können. Speziell soll dabei auf die Messung der Teilnahmebereitschaft und der Dokumentation relevanter Auffälligkeiten, vor dem Hintergrund einer virtuellen Welt, Wert gelegt werden.