Masterarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (97) (entfernen)
Sprache
- Deutsch (97) (entfernen)
Volltext vorhanden
- ja (97) (entfernen)
Schlagworte
- Augmented Reality (3)
- Datenschutz (3)
- Simulation (2)
- Sport (2)
- 360 Grad (1)
- 360 degree (1)
- 3D-Scan (1)
- 3D-Visualisierung (1)
- AR (1)
- Adhäsion (1)
Institut
- Institut für Computervisualistik (30)
- Fachbereich 4 (23)
- Institut für Management (18)
- Institut für Wirtschafts- und Verwaltungsinformatik (8)
- Institut für Informatik (6)
- Institut für Softwaretechnik (2)
- Fachbereich 1 (1)
- Fachbereich 3 (1)
- Fachbereich 6 (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
Eine Service Excellence Kultur wird von einer Vielzahl an Faktoren beeinflusst. Es existieren sowohl Faktoren, die das Zustandekommen einer Service Excellence Kultur fördern, als auch Faktoren, die hemmend wirken. Basiseigenschaften einer Service Excellence Kultur resultieren aus den internen Umstände einer Organisation. Die Mitarbeiter einer Organisation gelten als Schlüssel-Akteure bezüglich exzellentem Service. Fördernde interne Umstände entstehen aus dem Verhalten des Managements gegenüber den Angestellten. Dies kann sich in Form von Empowerment und Encouragement, also der Ermächtigung und der Ermutigung ausdrücken. Die interne Exzellenz ist der optimale interne Organisationszustand, um eine Service Excellence Kultur zu erzeugen. Aus einer internen Exzellenz heraus agieren die Front-Line-Employees mittels standardisierter sowie innovativer Prozesse mit den Kunden, und streben an, diese zufrieden zu stellen und Begeisterung zu erzeugen. Ein hemmender Faktor ist die Komplexität der Kundenprobleme, da dadurch die Erreichung von Kundenzufriedenheit und Begeisterung erschwert wird. In der IT-Dienstleistungsbranche spielt die Komplexität eine besondere Rolle. Durch die häufig individuellen und technischen Probleme entsteht eine erhöhte Komplexität, die eine Herausforderung für die Service-Mitarbeiter zur Folge hat. Damit dennoch Kundenzufriedenheit mit exzellentem Service erzeugt werden kann, gilt es, den Mitarbeiter mit einem detaillierten Handlungsleitfaden durch den Service-Prozess zu leiten. Zudem ist eine Wissensdatenbank von Nutzen, da jeder Service-Fall zum Wissensaufbau genutzt werden kann. Ein weiteres förderndes Element in einer Service Excellence Kultur ist die technische Unterstützung des Front-Line-Employees durch geeignete Software, die ihm grundlegende Aufgaben abnimmt.
In der vorliegenden Arbeit wird eine prototypische Anwendung für die Logopädie entworfen, die als therapeutisches Werkzeug dient, mit dem die Artikulation deutscher Laute und der Schluckvorgang simuliert werden können. Besonderer Fokus liegt dabei auf der dreidimensionalen Visualisierung der anatomischen Modelle der oro-pharyngolaryngealen Region, die vom Logopäden interaktiv bedient werden kann. Unter Berücksichtigung therapeutischer Anforderungen wird die Frage untersucht, ob eine solche Anwendung im Therapie-Alltag eingesetzt werden und einen Mehrwert zu den üblichen Hilfsmittel der Sprechtherapie bieten kann.
Eins der größten Ziele der Computergrafik ist die ästhetische Darstellung von Objekten. Neben herkömmlichen Verfahren existiert ein weiteres Feld, welches sich mit nicht-photorealistischen Renderings beschäftigt. Das Example-Based Rendering ist ein Gebiet, bei dem Benutzer ihren Kunststil, mit Hilfe einer handgemalten Vorlage, auf ein vorberechnetes 3D-Rendering übertragen können. Es existieren einige Algorithmen die bereits beeindruckende Ergebnisse liefern. Das Problem ist, dass die meisten Verfahren aus diesem Bereich zu den Offline-Verfahren zählen und nicht in der Lage sind Ergebnisse in Echtzeit zu produzieren. Aus diesem Grund zeigt diese Arbeit ein Verfahren, dass diese Bedingung erfüllt. Darüber hinaus wird untersucht, welchen Einfluss die Laufzeitminimierung auf die Resultate hat. Es sind Anforderungen definiert, auf die das Verfahren und dessen Ergebnisse überprüft werden. Dabei wird Bezug zu anderen Verfahren aus diesem Gebiet genommen und mit deren Resultaten verglichen.
Diese Arbeit befasst sich mit der Entwicklung und Evaluierung eines Konzepts zur neuartigen Interaktion mit ubiquitären, also allgegenwärtigen, User-Interfaces. Für die Durchführung der Evaluierung dieses Interaktionskonzeptes wurde darüber hinaus eine prototypische Umsetzung einer Augmented Reality-Anwendung mit Hilfe einer bestehenden Head-Mounted-Display-Lösung und einem Android-Smartphone realisiert.
Zudem wurde im Rahmen dieser Arbeit ein konkreter Anwendungsfall für diesen Prototyp " das Navigieren durch einen Stadtteil mittels elektronischer Übersichtskarte " entwickelt und als lauffähige Anwendung implementiert, um die Qualität des Interaktionskonzeptes evaluieren zu können. Auf Grundlage dessen wurden sodann wesentliche Forschungserkenntnisse gewonnen.
Die vorliegende Arbeit befasst sich mit dem Thema Responsible Research and Innovation (RRI). Die Ziele der Arbeit sind die Klärung des Begriffs sowie die Ermittlung des aktuellen Stands der Forschung in dem Gebiet. RRI ist ein Konzept, welches wesentlich von der Europäischen Kommission (EC) geprägt wurde. Es ist zusammengesetzt aus Verantwortung, Forschung und Innovation, welche hier zunächst einzeln betrachtet werden. Verantwortung setzt sich gemäß der hier verwendeten Definition von Clausen (2009) aus Subjekt („Wer übernimmt Verantwortung“), Objekt („wofür,“), Adressaten („wem gegenüber“) und Instanzen („und wieso?“) zusammen. Im Rahmen des konzeptuellen Teils dieser Arbeit wird die Eigenschaft von Unternehmen als Verantwortungssubjekte damit begründet, dass sie zielgerichtet handeln und vor allem die Gesellschaft, welche gleichzeitig als wichtiger Adressat und als Instanz der Verantwortung auftritt, sie zunehmend für die Folgen ihrer Handlungen in die Pflicht nimmt. Das Gebiet der Nachhaltigkeit mit seinen Säulen Ökonomie, Ökologie und Soziales wird außerdem als Verantwortungsobjekt eingehend betrachtet. Innovation und ihre Teilmenge Forschung werden in dieser Arbeit als komplexe Prozesse verstanden, die Unternehmensziele auf neuartige Weise umsetzen. Mittels einer Literaturanalyse nach Webster & Watson (2002) wird der aktuelle Stand der Forschung zu RRI ermittelt. Der Großteil der verwendeten Literatur wird dabei als konzeptioneller Natur identifiziert. Trotz großer Unklarheiten, die noch vorherrschen, lassen sich vier Dimensionen von RRI herauslesen: Deliberation, Antizipation, Reflexivität und Reaktivität. Die Dimensionen, welche von der EC verwendet werden, sind demnach eher als Aktivitäten einzuordnen. Forschung und Innovation, welche nach RRI ausgerichtet wird, bezieht Stakeholder und insbesondere die Gesellschaft von Anfang an in den Prozess ein, betrachtet ihre möglichen Auswirkungen und stellt ihre Hintergründe und grundlegenden Werte kontinuierlich in Frage. Den wichtigsten Aspekt stellt dabei die Anpassungsfähigkeit des Prozesses gemäß den Ergebnissen aus den übrigen Dimensionen dar. Alle Aktivitäten basieren auf Verantwortung und Nachhaltigkeit und werden durch geeignete Steuerung integriert. Über die konzeptionelle Arbeit hinaus wurde erst wenig Forschung durchgeführt, insbesondere was Operationalisierung und Implementierung von RRI angeht. Für letztere wird hier die Einbettung in einen Stage-Gate-Prozess nach Cooper (2010) vorgeschlagen. Auch die tatsächliche Ausgestaltung der konzeptionellen Dimensionen muss jedoch noch konkretisiert werden. Außerdem muss insgesamt das Bewusstsein für RRI geschärft werden und ein Bekenntnis zu RRI erfolgen.
Künstliche Intelligenzen werden immer öfter erfolgreich in Spielen angewendet. Sie benötigen aber, je nach Komplexität des Spiels, viel Rechenleistung, um gute Ergebnisse erzielen zu können. Daher wird in dieser Arbeit ein Strategy Learning-System implementiert, welches auf der Basis von Crowd-Learned Heuristiken funktioniert. Die Heuristiken sind dabei in einem Wiki hinterlegt. Die Forschung wird nach der Design Science Research Methodology betrieben. Das implementierte System wird auf das Spiel Dominion angewandt, wofür eine Dominion-Ontologie definiert wird. Für die Implementation wird eine Mappingsprache definiert, mit der Informationen aus einem Wiki in eine Ontologie übertragen werden können. Zudem werden Metriken definiert, mit der die ermittelten Strategien bewertet werden können. Im System können Nutzer zum einen ein Mapping für die Informations-Übertragung angeben und anwenden und zum anderen für Dominion eine Menge an Karten auswählen, in der Strategien ermittelt werden sollen. Das System wird abschließend evaluiert, indem Dominion-Spieler die vom System ermittelten Strategien und die erarbeiteten Metriken bewerten.
Im Rahmen dieser Masterarbeit wird der Spanning Tree Simulator um diverse Funktionalitäten erweitert. Dieser wurde in der Bachelorarbeit [Jan10b] von Andreas Sebastian Janke im Jahr 2010 entwickelt. Mithilfe eines Conguration-Files kann ein beliebiges Netzwerk ins Programm geladen und grafisch dargestellt werden. Solch ein Configuration-File muss in XML geschrieben werden und repräsentiert ein Netzwerk bestehend aus Switches und Hosts. Anschließend kann auf diesem Netzwerk der Spanning Tree Algorithmus IEEE 802.1D laufen gelassen werden. Anders als in der Bachelorarbeit sind jetzt nur noch die Switches als Threads realisiert, um weniger Systemressourcen zu benötigen. Nach Abschluss des Algorithmus entsteht ein Spannbaum, der die Schleifen im vorliegenden Netzwerk aufbricht. Dies ist notwendig, da diese beim Verschicken von Nachrichten zu einer stetig steigenden Auslastung des Netzes führen können.
Um Altsysteme beim sogenannten Software-Reengineering an neue Anforderungen mittels Computerunterstützung anpassen zu können, wird eine effiziente Repräsentation der vorliegenden und im Laufe des Prozesses anfallenden Daten und Informationen benötigt. Als geeignete Repräsentationsform haben sich TGraphen herausgestellt, da sowohl Knoten als auch gerichtete Kanten typisiert sind und über Attribute verfügen können. Darüber hinaus besteht eine globale Anordnung aller Elemente des Graphen sowie eine Reihenfolge der Inzidenzen jedes Knoten. In dieser Arbeit wurde die "Extractor Description Language" (EDL) entwickelt, um die Syntax der Eingabedaten zu beschreiben und mittels frei definierbarer semantischer Aktionen einen TGraphen aufzubauen. Im Gegensatz zu klassischen Parsergeneratoren wie ANTLR werden mehrdeutige Grammatiken, Modularisierung, Inselgrammatiken und Symboltabellen-Stacks von EDL unterstützt, wodurch die Erstellung der Syntaxbeschreibung vereinfacht wird. Nach der Erhebung der Anforderungen an EDL, werden zunächst die existierenden Parsergeneratoren daraufhin untersucht, welcher zur Realisierung der Anforderungen am geeignetsten ist.
Im Anschluss wird die Syntax sowie die Semantik von EDL beschrieben und unter Nutzung des geeigneten Parsergenerators implementiert. Anhand von zwei mittels EDL generierten exemplarischen Extraktoren für XML und Java wird der zeitliche Aufwand zum Verarbeiten der Eingabe gemessen.
Auswirkung der Einführung eines Mindestlohns auf den Arbeitsmarkt, anhand eines Simulationsmodells
(2012)
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
In der Forschung der autonomen mobilen Roboter ist besonders die Pfadplanung immer noch ein sehr aktuelles Thema.
Diese Masterabeit befasst sich mit verschiedenen Pfadplanungsalgorithmen zur Navigation solcher mobilen Systeme. Hierbei ist nicht nur eine kollisionsfreie Trajektorie von einem Punkt zu einem anderen zu ermitteln, sondern sollte diese auch noch möglichst optimal sein und alle Fahrzeug-gegebenen Einschränkungen einhalten. Besonders die autonome Fahrt in unbekannter dynamischer Umgebung stellt eine große Herausforderung dar, da hier eine geschlossene Regelung notwendig ist und dem Planer somit eine gewisse Dynamik abverlangt wird.
In dieser Arbeit werden zwei Arten von Algorithmen vorgestellt. Zum einen die Pfadplaner, welche auf dem A* aufbauen, der im eigentlichen Sinne ein Graphsuchalgorithmus ist: A*, Anytime Repairing A*, Lifelong Planning A*, D* Lite, Field D*, hybrid A*. Zum anderen die Algorithmen, welche auf dem probabilistischen Planungsalgorithmus Rapidly-exploring Random Tree basieren (RRT, RRT*, Lifelong Planning RRT*), sowie einige Erweiterungen und Heuristiken. Außerdem werden Methoden zur Kollisionsvermeidung und Pfadglättung vorgestellt. Abschließend findet eine Evaluation der verschiedenen Algorithmen statt.