Masterarbeit
Filtern
Erscheinungsjahr
- 2018 (18) (entfernen)
Dokumenttyp
- Masterarbeit (18) (entfernen)
Schlagworte
- Analysis of social platform (1)
- Freilandlabor (1)
- Gewässerchemie (1)
- Innovation (1)
- Kinematik (1)
- Knieverletzungen (1)
- Lernort (1)
- Nachhaltigkeit (1)
- Natural Language Processing (1)
- Reddit (1)
- Responsible Research and Innovation (1)
- Sport (1)
- Text classification (1)
- Verantwortung (1)
- cognitive load (1)
The content aggregator platform Reddit has established itself as one of the most popular websites in the world. However, scientific research on Reddit is hindered as Reddit allows (and even encourages) user anonymity, i.e., user profiles do not contain personal information such as the gender. Inferring the gender of users in large-scale could enable the analysis of gender-specific areas of interest, reactions to events, and behavioral patterns. In this direction, this thesis suggests a machine learning approach of estimating the gender of Reddit users. By exploiting specific conventions in parts of the website, we obtain a ground truth for more than 190 million comments of labeled users. This data is then used to train machine learning classifiers to use them to gain insights about the gender balance of particular subreddits and the platform in general. By comparing a variety of different approaches for classification algorithm, we find that character-level convolutional neural network achieves performance with an 82.3% F1 score on a task of predicting a gender of a user based on his/her comments. The score surpasses 85% mark for frequent users with more than 50 comments. Furthermore, we discover that female users are less active on Reddit platform, they write fewer comments and post in fewer subreddits on average, when compared to male users.
Die vorliegende Masterarbeit thematisiert die Evaluation einer sprachgesteuerten Lösung in der Produktion mit multimodaler Eingabe. Dabei wurden die Usability und die Benut-zerfreundlichkeit eines gewählten Sprachdialogsystems bewertet. Die Bewertung wurde mit Hilfe von Benutzertests und eines modifizierten SASSI-Fragebogens durchgeführt. Weiterhin wurden auch technische Kriterien, wie die Wortfehlerrate und die Out-of-grammar Rate zur Hilfe gezogen. Für den Versuch wurden zwei verschiedene Szenarien aus einer realen Produktionsum-gebung definiert. Dabei sollten die Teilnehmer verschiedene Aufgaben mit Hilfe des Testsystems erledigen. Die Interaktion mit dem Sprachdialogsystem fand anhand von ge-sprochenen Befehlen statt, welche durch eine Grammatik definiert wurden. Die Sprach-kommandos wurden durch die Zuhilfenahme eines WLAN-Headsets an das Sprachsys-tem übertragen. Während des Versuchs wurden Aussagen der Teilnehmer protokolliert und die technischen Kriterien notiert.
Das Ergebnis der Evaluation verdeutlicht, dass das Sprachdialogsystem eine hohe Quali-tät bezüglich Usability und Benutzerfreundlichkeit aufweist. Dabei sind die Wortfehler-rate und die Out-of-grammar Rate sehr niedrig ausgefallen und das System wurde von den Benutzern deutlich positiv bewertet. Nichtsdestotrotz wurden einige Kritikpunkte ge-nannt, die zu einer Verbesserung des Systems beitragen können.
This Master Thesis is an exploratory research to determine whether it is feasible to construct a subjectivity lexicon using Wikipedia. The key hypothesis is that that all quotes in Wikipedia are subjective and all regular text are objective. The degree of subjectivity of a word, also known as ''Quote Score'' is determined based on the ratio of word frequency in quotations to its frequency outside quotations. The proportion of words in the English Wikipedia which are within quotations is found to be much smaller as compared to those which are not in quotes, resulting in a right-skewed distribution and low mean value of Quote Scores.
The methodology used to generate the subjectivity lexicon from text corpus in English Wikipedia is designed in such a way that it can be scaled and reused to produce similar subjectivity lexica of other languages. This is achieved by abstaining from domain and language-specific methods, apart from using only readily-available English dictionary packages to detect and exclude stopwords and non-English words in the Wikipedia text corpus.
The subjectivity lexicon generated from English Wikipedia is compared against other lexica; namely MPQA and SentiWordNet. It is found that words which are strongly subjective tend to have high Quote Scores in the subjectivity lexicon generated from English Wikipedia. There is a large observable difference between distribution of Quote Scores for words classified as strongly subjective versus distribution of Quote Scores for words classified as weakly subjective and objective. However, weakly subjective and objective words cannot be differentiated clearly based on Quote Score. In addition to that, a questionnaire is commissioned as an exploratory approach to investigate whether subjectivity lexicon generated from Wikipedia could be used to extend the coverage of words of existing lexica.
Ontologien sind wichtige Werkzeuge zur Wissensrepräsentation und elementare Bausteine des Semantic Web. Sie sind jedoch nicht statisch und können sich über die Zeit verändern. Die Gründe hierfür sind vielfältig: Konzepte innerhalb einer Ontologie können fehlerhaft modelliert worden sein, die von der Ontologie repräsentierte Domäne kann sich verändern oder eine Ontologie kann wiederverwendet werden und muss an den neuen Kontext angepasst oder mit bestehenden Ontologien verbunden werden. Die Schwierigkeit dieses Prozesses hat zur Entstehung des Forschungsfeldes der Ontology Change geführt. Das Entfernen von Wissen aus Ontologien ist ein wichtiger Aspekt dieses Änderungsprozesses, da selbst das Hinzufügen neuen Wissens zu einer Ontologie das Entfernen bestehenden Wissens notwendig machen kann, falls dieses mit den neuen Vorstellungen in Konflikt steht. Dieses Entfernen muss jedoch wohldurchdacht sein, da das Ändern bestehender Konzepte leicht zu viel Wissen aus der Ontologie entfernen oder die semantische Bedeutung der Konzepte auf eine potenziell unerwartete Weise verändern kann. In dieser Arbeit wird daher ein formaler Operator zum präzisen Entfernen von Wissen aus Konzepten vorgestellt. Dieser basiert auf der Beschreibungslogik EL und baut partiell auf den Postulaten für Belief Set und Belief Base Contraction sowie der Arbeit von Suchanek et al. auf. Hierfür wird zunächst ein Einstieg in das Thema Ontologien und die Ontologiesprache OWL 2 gegeben und das Problemfeld der Ontology Change wird erläutert. Es wird dann gezeigt, wie ein formaler Operator diesen Prozess unterstützen kann und weshalb die Beschreibungslogik EL einen guten Ausgangspunkt für die Entwicklung eines solchen Operators darstellt. Anschließend wird ein Einblick in das Feld der Beschreibungslogiken gegeben. Hierfür wird die Geschichte der Beschreibungslogik kurz umrissen, Anwendungsgebiete werden genannt und es werden Standardprobleme in dieser Logik erläutert. In diesem Zusammenhang wird die Beschreibungslogik EL formal eingeführt. In einem nächsten Schritt werden verwandte Arbeiten untersucht und es wird gezeigt, warum das Recovery- und Relevance-Postulat für das Entfernen von Wissen aus Konzepten nicht unmittelbar anwendbar ist. Die hier gewonnenen Erkenntnisse werden anschließend dazu genutzt, die Anforderungen an den Operator zu formalisieren. Diese basieren hauptsächlich auf den Postulaten für Belief Set und Belief Base Contraction. Zusätzlich werden weitere Eigenschaften formuliert welche den Verlust des Recovery- bzw. Relevance-Postulates ausgleichen sollen. In einem nächsten Schritt wird der Operator definiert und es wird gezeigt, dass diese Definition das präzise Entfernen von Wissen aus EL-Konzepten gestattet. Mittels formaler Beweise wird zudem gezeigt, dass diese Definition alle zuvor aufgestellten Anforderungen erfüllt. In einem weiteren Beispiel wird dargestellt, wie der Operator in Verbindung mit sogenannten Laconic Justifications verwendet werden kann, um einen menschlichen Ontology-Editor durch das automatisierte Entfernen von unerwünschten Konsequenzen aus der Ontologie zu unterstützen. Aufbauend auf Algorithmen, welche aus der formalen Definition des Operators abgeleitet wurden, wird ein Plugin zum Entfernen von Wissen aus Ontologien für den Ontology-Editor Protégé vorgestellt. Anschließend werden die bisherigen Erkenntnisse zusammengefasst und es wird ein Fazit gezogen. Die Arbeit schließt mit einem Ausblick über mögliche zukünftige Forschung.
Mit der Microsoft Kinect waren die ersten Aufnahmen von synchronisierten Farb- und Tiefendaten (RGB-D) möglich, ohne hohe finanzielle Mittel aufwenden zu müssen und neue Möglichkeiten der Forschung eröffneten sich. Mit fortschreitender Technik sind auch mobile Endgeräte in der Lage, immer mehr zu leisten. Lenovo und Asus bieten die ersten kommerziell erwerblichen Geräte mit RGB D-Wahrnehmung an. Mit integrierten Funktionen der Lokalisierung, Umgebungserkennung und Tiefenwahrnehmung durch die Plattform Tango von Google gibt es bereits die ersten Tests in verschiedenen Bereichen des Rechnersehens z.B. Mapping. In dieser Arbeit wird betrachtet, inwiefern sich ein Tango Gerät für die Objekterkennung eignet. Aus den Ausgangsdaten des Tango Geräts werden RGB D-Daten extrahiert und für die Objekterkennung verarbeitet. Es wird ein Überblick über den aktuellen Stand der Forschung und gewisse Grundlagen bezüglich der Tango Plattform gegeben. Dabei werden existierende Ansätze und Methoden für eine Objekterkennung auf mobilen Endgeräten untersucht. Die Implementation der Erkennung wird anhand einer selbst erstellten Datenbank von RGB-D Bildern gelernt und getestet. Neben der Vorstellung der Ergebnisse werden Verbesserungen und Erweiterungen für die Erkennung vorgeschlagen.
Im Rahmen der Masterarbeit wird die kompetenzgestützte Weiterbildungssuche analysiert und am Beispiel des Weiterbildungsvergleichsportales EDUfittery dargestellt.
Die Umsetzung und Integration eines Kompetenzmessverfahrens in ein Vergleichsportal für Weiterbildungen war das Ziel dieser Arbeit. Des Weiteren sollte anhand des Kompetenzmessverfahrens ein sogenanntes „Matching“ zwischen Kompetenz und Weiterbildung erarbeitet werden. Beim „Matching“ werden dementsprechend die vom Kunden eingegebenen Kompetenzen mit passenden Weiterbildungsvorschlägen verbunden. Somit wird ein individuelles Kundenerlebnis in der Weiterbildungssuche erreicht. Um dies zu ermöglichen, wird zu Beginn der Arbeit ein theoretisches Kompetenzschema analysiert, sodass Aussagen über Erhebungsverfahren und Auswertungsstrategien getroffen werden können, um diese, besonders in Bezug auf ein web-gestütztes Messinstrument, kritisch zu hinterfragen. Aufbauend auf der Analyse verschiedener Kompetenzmessverfahren im Online-Segment, kann gezeigt werden, dass die Kompetenzdiagnostik zwar einige Verfahren zur Verfügung stellt, doch nur wenige sind praktikabel und in der Lage tätigkeitsbezogene Handlungskompetenzen zu bewerten. Folglich wurde das Instrument der Selbsteinschätzung von Kompetenzen als am besten zutreffendes Verfahren für EDUfittery gewählt.
Im Zuge der Arbeit wurden zwei Online-Umfragen und ein Experteninterview durchgeführt. Dabei wurden zum einen Mitarbeiter, als auch Personaler in Bezug auf Weiterbildungen befragt. Als Experte konnte Herr Korn, von der IHK Akademie Koblenz gewonnen werden. Anhand der Umfrageergebnisse und weiterer Recherchen konnte ein umfangreicher Business Case für EDUfittery angefertigt und mit Prozessdiagrammen veranschaulicht werden. Es wird ersichtlich, dass das Thema Kompetenzanalysen in Unternehmen bisher kaum Anwendung findet. Bei genauerer Betrachtung der aktuellen Marktsituation wird zusätzlich klar, dass es derzeitig noch keine Plattform gibt, die Kompetenzen mit Weiterbildungen erfolgreich in Zusammenhang bringt, um dem Kunden individuelle Weiterbildungslösungen anbieten zu können. Als Ergebnis der Arbeit kann demnach festgehalten werden, dass eine Integration von Kompetenzanalysen im Bereich Weiterbildungssuche durchaus sinnvoll ist. EDUfittery könnte sich bei erfolgreicher Umsetzung als hilfreiches Tool im Bereich Weiterbildung und Kompetenz etablieren und somit Unternehmen grundlegend bei der Abbildung, Analyse und Weiterentwicklung von Kompetenzen unterstützen.
Innovationen prägen die Gesellschaft. Daher ist das Innovationsmanagement eine zentrale Aufgabe in Unternehmen. Erfolgreiche Innovationen können die Effizienz und Effektivität eines Unternehmens steigern, folglich ist das Ziel eines Innovationsmanagements, erfolgreiche Innovationen hervorzubringen. Innerhalb des Managements von Innovationen entstehen Herausforderungen, die auf Innovationsbarrieren zurückzuführen sind. Diese können zum Scheitern von Innovation führen. Um diese Art von Misserfolg zu vermeiden, kann ein Vorgehensmodell zur Identifizierung und zum Umgang mit Innovationsbarrieren einen erfolgsorientierten Innovationsprozess begünstigen.
Die Eisenbahnindustrie ist durch ihre Infrastruktur, ihre politische Abhängigkeit und Sicherheitsanforderungen gekennzeichnet. Sicherheit, als eines der Hauptthemen der Branche ist einerseits durch das Schutz- und Kontrollsystem der Politik geprägt und andererseits gestaltet und beeinflusst durch Forschung und Entwicklung von Unternehmen, Universitäten oder externen Entwicklern. Die Unfallvermeidung ist ein bedeutendes Thema in der Literatur zur Eisenbahnsicherheit, hierbei ist die Instandhaltung eines der Instrumente, die der Vorbeugung dienen. Die Prävention von Unfällen treibt den Bedarf von Innovatio-nen für die Eisenbahnsicherheit an. Dementsprechend ist die Thematik der Innovationsbarrieren auch für die Bahnindustrie von Bedeutung. Der Umgang mit diesen in dem konkreten Zusammenhang der Eisenbahnsicherheit soll anhand eines Vorgehensmodells systematisiert werden. Um das Modell insbesondere auf die Branche und den Schwerpunkt der Sicherheit abzustimmen, wird das Grundgerüst des Modells aus der Literatur erarbeitet und mit den recherchierten Kenntnissen der Branche erweitert. Basierend auf den Kenntnissen über Innovationsbarrieren im Schienenverkehr werden Schnittstellenprobleme als Ursache von den spezifischen Barrieren identifiziert. Dazu gehören beispielsweise die Interoperabilität und technische Harmonisierung zwischen Ländern wie der EU sowie die Zusammenarbeit zwischen Industrie und Wissenschaft oder externen Entwicklern. In dem Bezug zu der Branche konnte für das Modell eine Erweiterung erarbeitet werden. Es wurde herausgearbeitet, dass die Eisenbahnbranche weniger innovationsaktiv ist, als z. B. die Technologiebranche. Dies ist auf einen Mangel an Motivation zur Innovation zurückzuführen, der in der Branchenkultur aufgrund von der vergangenen Monopolstellung und dem hohen Sicherheitsanspruch zu einer risikoaversen Haltung führt. Daher muss die fortschreitende Liberalisierung des Eisenbahnmarktes abgeschlossen und die Sicherheitskonzepte neu strukturiert werden, um ein innovationsfreundliches Umfeld zu schaffen.
Letztendlich sollte das Vorgehensmodell in einer realen Umgebung getestet werden. Es wäre interessant zu erfahren, ob das entwickelte Modell zu den in dieser Arbeit entwickelten Ergebnissen hinsichtlich der mangelnden Motivation für Innovationen passt. Darüber hinaus scheint eine Validierung von Experten angebracht zu sein, da die Entwicklung des Modells von der Literaturrecherche abhängt
Eine Service Excellence Kultur wird von einer Vielzahl an Faktoren beeinflusst. Es existieren sowohl Faktoren, die das Zustandekommen einer Service Excellence Kultur fördern, als auch Faktoren, die hemmend wirken. Basiseigenschaften einer Service Excellence Kultur resultieren aus den internen Umstände einer Organisation. Die Mitarbeiter einer Organisation gelten als Schlüssel-Akteure bezüglich exzellentem Service. Fördernde interne Umstände entstehen aus dem Verhalten des Managements gegenüber den Angestellten. Dies kann sich in Form von Empowerment und Encouragement, also der Ermächtigung und der Ermutigung ausdrücken. Die interne Exzellenz ist der optimale interne Organisationszustand, um eine Service Excellence Kultur zu erzeugen. Aus einer internen Exzellenz heraus agieren die Front-Line-Employees mittels standardisierter sowie innovativer Prozesse mit den Kunden, und streben an, diese zufrieden zu stellen und Begeisterung zu erzeugen. Ein hemmender Faktor ist die Komplexität der Kundenprobleme, da dadurch die Erreichung von Kundenzufriedenheit und Begeisterung erschwert wird. In der IT-Dienstleistungsbranche spielt die Komplexität eine besondere Rolle. Durch die häufig individuellen und technischen Probleme entsteht eine erhöhte Komplexität, die eine Herausforderung für die Service-Mitarbeiter zur Folge hat. Damit dennoch Kundenzufriedenheit mit exzellentem Service erzeugt werden kann, gilt es, den Mitarbeiter mit einem detaillierten Handlungsleitfaden durch den Service-Prozess zu leiten. Zudem ist eine Wissensdatenbank von Nutzen, da jeder Service-Fall zum Wissensaufbau genutzt werden kann. Ein weiteres förderndes Element in einer Service Excellence Kultur ist die technische Unterstützung des Front-Line-Employees durch geeignete Software, die ihm grundlegende Aufgaben abnimmt.
Moderne Softwaresysteme bestehen aus verschiedenen Programmiersprachen, Softwaretechnologien und Artefakten. Dadurch wird es für Entwickler komplexer, den Quelltext sowie die enthaltenen Abhängigkeiten zu verstehen. Entsprechend muss ein größerer Aufwand in die Erstellung von Dokumentation gesteckt werden. Eine Möglichkeit zur Dokumentation einer Software mit dem Fokus auf die benutzten Technologien stellen linguistische Architekturen dar. Diese können z. B. durch die MegaL Ontologie beschrieben werden. Da die Erstellung einer solchen linguistischen Architektur für ein beliebiges Softwareprojekt kompliziert ist, beschreibt diese Arbeit einen Ansatz zur automatischen Erstellung einer solchen linguistischen Architektur. Dafür wird das Open Source Framework Apache Jena verwendet, welches Semantic Web Technologien wie RDF und OWL benutzt. Mit diesem können spezifische Regeln definiert werden, welche aus existierenden RDF-Triplen neue ableiten. Dieser Ansatz wird schließlich in einer Case Study an zehn verschiedenen Open Source Projekten getestet. Dabei soll eine linguistische Architektur in MegaL extrahiert werden, welche die Nutzung von Hibernate beschreibt. Mit der Hilfe von spezifischen Metriken wird das Ergebnis dann mit einem internen und externen Ansatz evaluiert.
Hintergrund
Das neue Modell einer Knieorthese Condlya 4 soll die Bewegungsfreiheit im Knie nur geringfügig einschränken, so dass viele sportliche Bewegungen weiterhin gewährleistet sind. Dennoch stabilisiert die Orthese das Gelenk soweit, dass Scherbewegungen vermieden werden und während der Rehabilitationsphase nach Knieverletzungen und Instabilitäten bereits nach kurzer Zeit mit dem Sport wieder begonnen werden kann.
Das Ziel der Arbeit
Ziel der Masterarbeit war es mittels Bewegungsanalyse den Einfluss der Knieorhese auf die Bewegungsqualität des Handstands zu prüfen. Zu dieser 2D- Analyse wurden die Bewegungsabläufe mit mehreren digitalen Hochgeschwindigkeitskameras (OptiTrack Flex 3) aus zwei Ebenen gefilmt. Über die an anatomischen Fixpunkten angebrachten Markern wurden die Aufnahmen mit der Software MyoVideo am Rechner mittels automatischem Marker Tracking verarbeitet. Damit konnten die zeitlichen Verläufe von Marker-Koordinaten und Gelenkwinkeln aufgezeigt werden.
Ergebnisse
Die Ergebnisse dieser Untersuchung bestätigten, dass die untersuchte Knieorthese Condyla 4 für den Sport geeignet ist und keinen negativen Einfluss auf die Bewegungsqualität des Handstands nimmt. Die Anwendung der Knieorthese lässt sich dadurch auch auf andere Elemente aus dem Bereich des Turnens übertragen, bei denen die unteren Extremitäten ähnlichen Belastungen ausgesetzt sind.