Filtern
Dokumenttyp
- Bachelorarbeit (68) (entfernen)
Schlagworte
- Android <Systemplattform> (3)
- Routing (3)
- Akkreditierung (2)
- E-Government (2)
- Enterprise 2.0 (2)
- Smartphone (2)
- 3D-Kartierung (1)
- API (1)
- Ad-Hoc Routing (1)
- Agenten (1)
Institut
- Fachbereich 4 (68) (entfernen)
Zur Erkennung vorhandener Usability-Probleme führen Usability-Experten Nutzerstudien durch. Eine etablierte Methode ist das Aufzeichnen von Blickverhalten
mit einem Eye-Tracker. Diese Studien erfordern allerdings einen hohen Aufwand für die Auswertung der Ergebnisse. Eine automatisierte Erkennung von guter und schlechter Usability in aufgezeichneten Nutzerdaten kann den Usability-Experten bei der Eye-Tracking-Auswertung unterstützen und den Aufwand reduzieren. Das Ziel der vorliegenden Arbeit ist die Identifizierung geeigneter Eye-Tracking-Metriken, die mit der Qualität der Usability korrelieren. Dazu wird die Forschungsfrage beantwortet:
Welche Eye-Tracking-Metriken korrelieren mit der Qualität der Bedienung eines Web-Formulars? Zur Beantwortung wurde eine quantitative A/B- Nutzerstudie mit Eye-Tracking durchgeführt und das Blickverhalten von 30 Probanden während der Bearbeitung eines Web Formulars aufgezeichnet.
Das Web-Formular wurde so gestaltet, dass jede Web-Formularseite als gute und schlechte Variante nach bekannten Usability-Richtlinien vorlag. Die Ergebnisse bestätigen einen signifikanten Zusammenhang der Eye-Tracking-Metrik "Anzahl der Besuche einer AOI" mit der Qualität der Bedienung eines Web-Formulars. Die Eye-Tracking-Metriken "Anzahl der Fixationen innerhalb einer AOI" und "Dauer der Fixationen innerhalb einer AOI" korrelieren ebenfalls mit der Qualität der Usability. Für die "Zeit der ersten Fixation innerhalb einer AOI" konnte keine Korrelation bestätigt werden.
Mit der rasant fortschreitenden Entwicklung von Informatiksystemen und Algorithmen ist die Erfassung und Verarbeitung von Daten in immer größeren Umfang möglich. Verschiedene Initiativen haben sich dadurch motiviert zur Aufgabe gemacht, über die daraus resultierenden Gefahren für die Persönlichkeitsrechte und die Meinungsfreiheit aufzuklären. Dies soll einen bewussteren Umgang mit personenbezogenen Daten zur Folge haben. Zum Schutz der Grundrechte bedarf es aufgeklärter und informierter Nutzer, diese Aufgabe können die Initiativen allerdings nicht alleine leisten. Die staatlichen Bildungseinrichtungen und besonders die Schulen, stehen hier in der Pflicht sich an der Lösung des Problems zu beteiligen. Um ihrem Bildungsauftrag im vollen Ausmaß gerecht zu werden, bedarf es struktureller Änderungen, wie der Änderung von Lehrplänen. Solange diese allerdings nicht erfolgt sind, muss in und mit den gegebenen Strukturen gearbeitet werden. Eine Plattform dafür bietet der schulische Informatikunterricht.
Die vorliegende Arbeit stellt eine Unterrichtsreihe zur Behandlung von Datenschutz und Datensicherheit vor. Es wurde dabei ein kontextorientierter Ansatz nach Vorbild von Informatik im Kontext gewählt. Die Reihe Smartphone-Applikationen beinhaltet über die genannten primären Themen der Unterrichtsreihe hinaus weitere Dimensionen, die bei der Nutzung von Smartphones auftreten. Durch den direkten Bezug zum Alltag der Schüler soll dabei eine möglichst hohe Betroffenheit erzeugt werden. Dadurch sollen die Schüler ihr bisheriges Nutzungsverhalten überdenken und im besten Fall ihren Altersgenossen als Vorbilder dienen. Die Prüfung der Durchführbarkeit der Reihe im Unterricht steht noch aus. Diese war im Rahmen dieser Arbeit, begründet durch die begrenzte Bearbeitungszeit, nicht zu leisten.
Diese Arbeit untersucht die neue Finanzierungsform Crowdfunding. In den letzten Jahren entwickelten sich immer mehr Crowdfunding Plattformen im Internet. Zentrale Frage ist, ob Crowdfunding in absehbarer Zeit eine alternative Finanzierungsmöglichkeit für soziale Organisationen darstellt. In dieser Arbeit wird die Entstehung und Entwicklung von Crowdfunding aufgeführt und die unterschiedlichen Formen des Crowdfundings erläutert. Es wird ein Überblick über deutsche Crowdfunding Plattformen gegeben und Erfolgsfaktoren von Crowdfundingprojekten werden aufgezeigt. In einem Fallbeispiel wird aus den vorher gewonnenen Ergebnissen ein Konzept für die Finanzierung eines sozialen Projekts auf einer Crowdfunding Plattform erstellt.
Zur Zeit ist die Microsoft Kinect in verschiedensten Anwendungsbereichen populär, da sie sowohl günstig als auch genau ist. Für die Steuerung des Mauszeigers ist sie jedoch noch ungeeignet da die Skelettdaten zittern. In meinem Ansatz wird versucht mit gängigen Methoden aus der Bildverarbeitung die Mauszeiger Position zu stabilisieren. Dabei wird als Input die Farbkamera der Kinect dienen. Aus den verschiedenen ermittelten Positionen soll anschließend eine finale Position bestimmt werden. Die rechte Hand steuert dabei die Maus. Eine einfache Klick Geste wird ebenfalls entwickelt. In der Evaluation wird gezeigt ob dieser Ansatz eine Verbesserung darstellt.
Diese Arbeit beschreibt die Implementation eines Pfadplanungs-Algorithmus für Seriengespannfahrzeuge mithilfe von Maschinellen Lernalgorithmen. Zu diesem Zwecke wird ein allgemeiner Überblick über genetische Algorithmen gegeben, alternative Ansätze werden ebenfalls kurz erklärt. Die Software die zu diesem Zwecke entwickelt wurde basiert auf der EZSystem Simulationssoftware der AG Echtzeitsysteme der Universität Koblenz-Landau, sowie auf der von Christian Schwarz entwickelten Pfadkorrektursoftware, die ebenfalls hier beschrieben wird. Diese enthält auch eine Beschreibung des, zu Simulationszwecken, verwendeten Fahrzeugs. Genetische Algorithmen als Lösung von Pfadplanungsproblemen in komplexen Szenarien werden dann, basierend auf der entwickelten Simulationssoftware, evaluiert und diese Ergebnisse werden dann mit alternativen, nicht-maschinellen Lernalgorithmen, verglichen. Diese werden ebenfalls kurz erläutert.
In dieser Arbeit wird das in letzter Zeit zunehmend wichtiger werdende Thema der Routenaggregation und deren Auswirkung auf die Verhinderung von Routingschleifen behandelt. Als Basis für die Implementation und Evaluation dient das an der Universität Koblenz entwickelte RMTI-Protokoll, bei dem es sich um eine Weiterentwicklung des in RFC2453 spezifizierten Routing Information Protocol Version 2 handelt. Dieses Protokoll kommt, in dieser Arbeit, innerhalb der virtuellen Netzwerkumgebung Virtual Network User-Mode-Linux (VNUML) zum Einsatz. Mit VNUML ist es möglich konkrete Netzwerkszenarien virtuell zu betreiben und zu untersuchen. Der RMTI ist bereits in der Lage topologische Schleifen zu erkennen und dadurch das Entstehen von Routingschleifen nachweislich zu verhindern. Im Rahmen der Arbeit wird die Funktionsweise des RMTI beschrieben und anschließend darauf eingegangen, unter welchen Umständen eine Routenaggregation vorgenommen werden darf ohne das die Aggregation Routinganomalien nach sich zieht. Um diese Änderungen vornehmen zu können ist ein tieferes Verständnis der Struktur von Routingtabellen notwendig, daher wird deren Aufbau anhand von Beispielen erläutert. Im Anschluss wird beschrieben an welchen Stellen Änderungen am RMTI vorgenommen werden müssen um trotz Aggregation eine Verhinderung von Routingschleifen bewirken zu können. Am Ende der Arbeit findet abschließend eine Evaluation der Reorganisationsfähigkeit des virtuellen Netzes bei vorgenommener Routenaggregation statt.
Die weltweite Zugänglichkeit und umfangreiche Nutzung des Internets machen dieses Medium zu einem effizienten und beliebten Informations-, Kommunikations-, und Verkaufsinstrument. Immer mehr Menschen und Organisationen versuchen, diese Vorzüge durch eine eigene Website für ihre Zwecke zu verwenden. Als hilfreiches Mittel zur Optimierung von Webpräsenzen bewährte sich in den letzten Jahren der Einsatz von Web-Analytics-Software. Durch diese Software sind Websitebetreiber in der Lage, Informationen über die Besucher ihrer Website und deren Nutzungsverhalten zu sammeln und zu messen. Das angestrebte Resultat sind Optimierungsentscheidungen auf Basis von Daten an Stelle von Annahmen und wirkungsvolle Testmöglichkeiten.
Für den Bereich des E-Commerce existieren bis dato zahlreiche wissenschaftliche und praxiserprobte Hilfestellungen für Web-Analytics-Projekte. Informationswebsites hingegen werden trotz ihrer Wichtigkeit nur vereinzelt thematisiert. Um diesem Defizit entgegenzuwirken, hat Hausmann 2012 das Framework for Web Analytics entwickelt, welches dem Anwender ein hilfreiches Referenzmodell für sein Web Analytics-Vorhaben bietet. Diesen Ansatz weiter voranzutreiben ist das Ziel der Abschlussarbeit. Dazu wird mithilfe einer Literaturanalyse und einer Fallstudie das Framework validiert und ergänzt, sowie weitere Handlungsempfehlungen identifiziert. Als Ergebnis werden die wichtigsten Erkenntnisse dieser Forschung zusammengefasst und für den zukünftigen Gebrauch festgehalten.
Viele Suchmaschinen betreiben Formen der Internetregulierung. Diese ist für den Endbenutzer teils schwer ersichtlich und leicht umgehbar. Weiter ist es oft schwierig, Hintergrundinformationen zu Regulierungen zu erfahren. Um diese Schwachstellen zu beheben, wird die Entwicklung der prototypischen Meta-Suchmaschine "Polsearchine" beschrieben. Ihre Regulierung erfolgt mittels der von Kasten und Scherp für Internetregulierung entwickelten Ontologie InFO. Dabei wird die konkrete Erweiterung SEFCO zur Anwendung auf Suchmaschinenebene verwendet. Zur Beschaffung der Suchergebnisse wird eine externe Suchmaschinen-API genutzt. Um nicht von einer bestimmten API abhängig zu sein, kann die API leicht ausgetauscht werden.
Infinite worlds
(2013)
Diese Arbeit befasst sich mit dem Erstellen eines 2D-Action-Adventures mit Rollenspielelementen. Sie soll einen Überblick über verschiedene Aspekte der Realisierung geben. Zuerst wird die Spielidee und die verwendeten Spielmechanismen beschrieben und daraus eine Anforderungsdefinition erstellt. Nachdem das verwendete Framework kurz erläutert wurde, wird das softwaretechnische Konzept zur Realisierung vorgestellt. Die Umsetzung der Komponenten Steuerung, Spieleditor, Sound und Grafiik wird aufgezeigt. Bei der grafiischen Umsetzung wird ein besonderes Augenmerk auf die Abstraktion von Licht und Schatten in die 2D-Spielewelt gelegt.
Die vorliegende Arbeit befasst sich mit der volkswirtschaftlichen Untersuchung von Arbeit in virtuellen Welten und hat als Kerninhalt die Analyse des Arbeitsmarktes in "Massively Multiplayer Online Role-Playing Games" (MMORPGs). Als Ausgangsbasis diente zum einen der Faktor Arbeit in der Realität, zum anderen wurden zusätzliche Besonderheiten von MMORPGs in die Betrachtung miteinbezogen, woraus sich ein Gesamtbild des virtuellen Arbeitsmarkts ergab, aus dem sich relevante Indikatoren ableiten ließen. Neben dem grundsätzlichen Befund der Existenz eines virtuellen Arbeitsmarktes, wurden Ähnlichkeiten zum realen Arbeitsmarkt deutlich. So war es möglich virtuelle Stundenlöhne zu berechnen, unternehmensähnliche Strukturen in Spielergruppierungen nachzuweisen und ausgehend von der Humankapitaltheorie, eine modifizierte Theorie ("Avatarkapital") für virtuelle Welten zu ermitteln. Allerdings ergaben sich auch Unterschiede, so ist die Komplexität der Herstellungsprozesse in den untersuchten MMORPGs in der Regel weitaus geringer als in der Realität. Durch eine Gegenüberstellung von Motivationsfaktoren in beiden Arbeitswelten wurden weiterhin Gemeinsamkeiten, aber auch Unterschiede festgestellt und dargelegt. Zusätzlich wurde aufgezeigt, dass das aktuell diskutierte Thema Mindestlohn auch in virtuellen Arbeitsmärkten von MMORPGs anzutreffen ist und als Spielmechanik implementiert wurde, um Motivation durch andauernde Beschäftigung zu gewährleisten. Über diese Parallelen hinaus, wurde anhand einer Analyse von Waren- und Geldtransaktionen (Real-Money-Trading) zwischen Virtualität und Realität eine Verbindung beider Welten nachgewiesen, die beide Arbeitsmärkte gleichermaßen betrifft. Neben der theoretischen Untersuchung, war es auch Ziel eigene Beobachtungen und Ansätze in die Ergebnisse einfließen zu lassen. Besonders in der abschließenden empirischen Untersuchung war es somit möglich weitere Faktoren zu entdecken, die nicht ausreichend aus der Theorie heraus zu ermitteln waren. Vor allem weitere Erkenntnisse zum Thema Produktivitätsmessung in virtuellen Welten konnten so aus der Praxis in die Theorie einfließen. Schlussendlich wurde aber auch deutlich, dass sich die Untersuchungen zum Thema Arbeitsmarkt in virtuellen Welten noch in einem frühen Stadium befinden und zahlreiche Forschungsobjekte in diesem Bereich existieren, die mit Sicherheit zu einem Erkenntnisgewinn in der Volkswirtschaftslehre führen.
Die Arbeit stellt Path Tracing zum Rendern von Bildern mitrnglobaler Beleuchtung vor. Durch die Berechnung der Rendergleichung, mithilfe von Zufallsexperimenten, ist das Verfahren physikalisch plausibel. Entscheidend für die Qualität der Ergebnisse ist Sampling. Der Schwerpunktrnder Arbeit ist die Untersuchung verschiedener Samplingstrategien. Dazu werden die Ergebnisse unterschiedlicher Dichtefunktionen verglichenrnund die Methoden bewertet. Außerdem werden Effekte, wie beispielsweise Depth of Field, mittels Sampling visualisiert.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluierung eines kollaborativen Multiplayer-Games für Kleinkinder für mobile Geräte.
Das Ziel dieser Bachelorarbeit war es, herauszufinden in wie weit sich mobile Geräte wie etwa Tablet-PCs und Smartphones für das Zusammenspiel von Kindern eignen. In diesem Rahmen wurden die für die Entwicklung eines solchen Spiels relevanten Aspekte recherchiert und darauf aufbauend ein Spiel entwickelt, welches anschließend von Kleinkindern getestet wurde.
Concept for a Knowledge Base on ICT for Governance and Policy Modelling regarding eGovPoliNet
(2013)
Das EU-Projekt eGovPoliNet beschäftigt sich mit der Forschung und Entwicklung im Bereich der Informations- und Kommunikationstechnologien (IKT) für Steuerung und Politikgestaltung. Zahlreiche Communities verfolgen in diesem Themenbereich ähnliche Ziele der IT-unterstützten, strategischen Entscheidungsfindung und Simulation sozialer Problemfelder. Die vorhandenen Lösungsansätze sind bislang jedoch recht fragmentiert. Ziel von eGovPoliNet ist es in diesem Zusammenhang der Fragmentierung zu begegnen und durch die Förderung der Kooperation von Forschung und Praxis einen internationalen, offenen Dialog zu etablieren. Dieser wird durch die Beteiligung der Akteure auf diesem Gebiet der IKT die Diskussion und Entwicklung verschiedener Problemfelder voranbringen. Hierbei werden Akteure aus Forschung und Praxis ihre Expertise und Best-Practice Erkenntnisse teilen, um Politikanalyse, Modellierung und Steuerung zu unterstützen. eGovPoliNet wird zur Unterstützung dieses Dialogs eine Wissensbasis bereitstellen, deren konzeptuelle Ausarbeitung Gegenstand dieser Arbeit ist. Die Wissensbasis soll mit Inhalten aus dem Bereich der IKT zur strategischen Entscheidungsfindung und Simulation sozialer Problemfelder gefüllt werden, beispielsweise mit Publikationen, Softwarelösungen, oder Projektbeschreibungen. Diese Inhalte gilt es zu strukturieren, nutzenstiftend zu organisieren und zu verwalten, sodass die Wissensbasis letztendlich als Quelle gesammelten Wissens dient, welche die bislang fragmentierten Forschungs- und Entwicklungsergebnisse an zentraler Stelle vereint.
Ziel dieser Arbeit ist es also, ein Konzept einer Wissensbasis zu entwerfen, welches die nötige Struktur und die nötigen Funktionen bietet, Wissen bezüglich IKT-Lösungen zu verwalten. Das bedeutet in diesem Zusammenhang Wissen zu sammeln, aufzubereiten und dem Nutzer zugänglich zu machen. Die Wissensbasis soll außerdem nach Inhalten durchsuchbar sein. Desweiteren sollen die Nutzer motiviert werden, selbstständig an der Weiterentwicklung und Pflege der Wissensbasis mitzuwirken.
Das Vertrauen von jungen Erwachsenen in politische Beiträge aus Rundfunk, Print- und Digitalmedien
(2013)
Die Kernfrage dieser Bachelorarbeit ist, ob das Vertrauen in Medien auf die politische Einstellung wirkt und ob Mediennutzung auf diese Wirkungsrichtung Einfluss nimmt. Hierbei werden sowohl Mediengattungen als auch einzelne Medienformate differenziert betrachtet. Die politische Einstellung wird anhand der Einstellungsdimensionen Effektivität der Regierung, Legitimität der Regierung, Einflussüberzeugung, Responsivität der politischen Akteure und Integrität der politischen Akteure operationalisiert. Hierbei wird der Fokus auf junge Erwachsene gelegt, welchen verbreitet Politikverdrossenheit nachgesagt wird.
Zur Prüfung des Zusammenhangs zwischen Medienvertrauen und der politischen Einstellung wird eine quantitative Online-Befragung der Studenten/ Studentinnen der Universität Koblenz (N = 496) durchgeführt. Zur Datenauswertung werden Regressionsanalysen sowie die ANOVA angewandt. Die Ergebnisse weisen nicht auf eine allgemeine negative politische Grundhaltung junger Erwachsenen hin. Zudem indizieren die Resultate, dass das Vertrauen in Medien einen signifikanten Effekt auf die politische Einstellung hat (p ≤ .05). Mediennutzung hat hingegen unzureichende Erklärungskraft. Auch in zukünftigen Studien würde es sich anbieten, das Medienvertrauen als zentrale unabhängige Variable zu untersuchen, wobei ein Generationenvergleich unterschiedlicher Bildungsschichten empfehlenswert wäre.
Ein Kinect-Sensor verfügt über die Fähigkeit, gleichzeitig Farb- und Tiefenbilder aufzunehmen. In dieser Bachelorarbeit wird versucht, das Tiefenbild zu nutzen, um Beleuchtungsinformationen und Materialeigenschaften im Farbbild zu manipulieren. Die vorgestellten Verfahren zur Beleuchtungs- und Materialmanipulation benötigen eine Lichtsimulation der Lichtverhältnisse zum Zeitpunkt der Aufnahme und übertragen dann Informationen aus einer neuen Lichtsimulation direkt zurück in das Farbbild. Da die Simulationen auf einem dreidimensionalen Modell durchgeführt werden, wird nach einem Weg gesucht, ein solches aus einem einzigen Tiefenbild zu erzeugen. Dabei wird auf Probleme der Tiefendatenerfassung des Kinect-Sensors eingegangen. Es wird ein Editor entwickelt, mit dem Beleuchtungsund Materialmanipulationen möglich gemacht werden sollen. Zum Erzeugen einer Lichtsimulation werden einfache, echtzeitfähige Renderingverfahren und Beleuchtungsmodelle vorgestellt. Mit ihnen werden neue Beleuchtungssituationen, Schatten und Spiegelungen in das Farbbild eingefügt. Einfache Umgebungen mit definierten Lichtverhältnissen werden in Experimenten manipuliert, um Grenzen und Möglichkeiten des Sensors und der verwendeten Verfahren aufzuzeigen.
Diese Arbeit beschäftigt sich mit einigen Problemen, die beim Rendern von stereoskopischen Inhalten auftreten können. Die Probleme werden dabei mit Hilfe eines selbstentwickelten Programms simuliert und von einer Gruppe von Testpersonen bewertet. Dabei soll festgehalten werden, wie stark die Fehler wahrnehmbar sind und welchen Einfluss sie auf den 3D-Eindruck haben. Des Weiteren soll untersucht werden, ob die verschiedenen Kameraanordnungen einen Einfluss auf die Wahrnehmung des 3D-Eindrucks und des Fehlers haben.
In dieser Arbeit wird ein erster Prototyp einer mobilen Lernplattform mit Mixed-Reality-Funktionalität (MR) entwickelt. Dieses System soll in den Arbeitsprozess integriertes, selbstbestimmtes Lernen, in Interaktion mit dem Arbeitsgegenstand ermöglichen. Dies entspricht einem situierten, gemäßigt konstruktivistischen Kompetenzbegriff zur beruflichen Weiterbildung, wie ihn Martens-Parree beschreibt. Anhand eines Probandentests in einer Beispieldomäne, der Ausbildung von Piloten auf Segelflugzeugen, wird untersucht, ob Kompetenzvermittlung im Sinne von Handlungskompetenz mit Hilfe des mobilen MR-Lernmediums unterstützt wird und, ob das System bei konkreten Arbeitsaufgaben arbeitserleichternd wirkt. Die Annahmen der erwachsenenpädagogischen Ausgangsthesen konnten grundsätzlich gestützt werden, auch wenn keine direkte Handlungskompetenz, sondern lediglich eine Wissensvermittlung nachgewiesen werden konnte.
Diese Arbeit liegt im Themenbereich der benutzerfreundlichen Gestaltung von Applikationen (Apps) auf mobilen Endgeräten, einem Teilgebiet der Software-Ergonomie. Dabei werden zwei Anwendungen im Rahmen einer Nutzungsevaluierung untersucht, mit dem Ziel, herauszufinden, wie eine Hilfestellung auf einem mobilen Endgerät aussehen sollte. Bei der Untersuchung wird insbesondere auf die Frage eingegangen, welche Art von Gesten zur Steuerung der Hilfefunktionen auf einem mobilen Endgerät geeignet ist. Die Studie zeigt, dass die Probanden/-innen sich eine angepasste Hilfestellung wünschen, jedoch eine umfangreiche Hilfebeschreibungen ablehnen, da sie schnell überfordert sind.
Die vorliegende Arbeit behandelt die Konzeption einer Smartphone-Applikation für Notfälle. Sie beschreibt die grundlegende Problemstellung und bietet einen konzeptionellen Lösungsansatz.
Den Kerninhalt der Arbeit bildet eine Anforderungsanalyse an eine neu zu konzipierende Notfall-Applikation. Weiterhin werden neben den funktionalen Anforderungen auch nicht-funktionale Anforderungen wie die Benutzerfreundlichkeit betrachtet, um daraus Erkenntnisse für das im Anschluss folgende Soll-Konzept der Applikation abzuleiten. Aufbauend auf einem erstellten Anforderungskatalog wird eine Marktanalyse bestehender Systeme für den Einsatz in Notfällen durchgeführt und auf Stärken und Schwächen hin untersucht. Daneben werden bereits existierende oder im Aufbau befindliche mHealth-Applikationen der Universität Koblenz betrachtet, deren Teilfunktionaltäten aufgrund des vorhandenen Quellcodes mit der späteren Applikation verknüpft werden können. Im Soll-Konzept werden die Erkenntnisse zusammengefasst und mögliche Architekturszenarien für die künftige Notfall-Applikation aufgezeigt. Bei der Bearbeitung des Themas wird deutlich, dass eine Konzeption alleine nicht weit genug greift, die Anforderungen an die zu erstellende Arbeit werden somit erweitert um die Anbindung und Integration der Rettungsleitstellen in das Konzept der Notfall-App.
Am Ende der Ausarbeitungen wird der Leser einen umfassenden Überblick über die Bereitstellung von Notfalldaten an die Leitstellen mittels unterschiedlicher Übertragungskanäle erhalten haben. Weiterhin werden Voraussetzungen für die Anforderungen an das zu konzipierenden System vorgestellt und mögliche Architektur-Szenarien des Notfall-Applikations-Systems aufgezeigt. Der generische und modulare Ansatz garantieren, dass das System offen für zukünftige Entwicklungen und die Anbindung von Teilfunktionalitäten weiterer Applikationen ist.
Die Bedeutung von Social Software (SSW) nimmt nicht nur im Privatleben vieler Menschen zu. Auch Unternehmen haben mittlerweile die Potentiale dieser Systeme erkannt und setzen vermehrt auf Web 2.0 Technologien basierende Systeme im Unternehmenskontext ein. So brachte eine Studie der Association for Information and Image Management (AIIM) im Jahr 2009 hervor, dass über 50 % der Befragten Enterprise 2.0 (E2.0), d.h. der Einsatz von SSW im Unternehmen, als kritischen Faktor des Unternehmenserfolges ansahen. Auch durch diesen Trend mit verursacht stieg, laut einer Studie des Beratungsunternehmens IDC, die Menge an digital verfügbaren Informationen innerhalb einer Zeitspanne von fünf Jahren (2006-2011) um den Faktor zehn. Wo früher galt, "Je mehr Information, desto besser.", bereitet heute das Managen dieser schieren Flut an Informationen vielen Unternehmen Probleme (bspw. in Bezug auf die Auffindbarkeit von Informationen). SSW bietet mit neuen Funktionen, wie Social Bookmarking, Wikis oder Tags, das Potential, Informationen durch Nutzerbeteiligung besser zu strukturieren und zu organisieren. In der vorliegenden Arbeit wird am Beispiel der Forschungsgruppe für Betriebliche Anwendungssysteme (FG BAS) gezeigt, wie man vorhandene Informationsstrukturen erfassen, analysieren und darauf basierend Empfehlungen für den Einsatz von SSW herleiten kann. Den Rahmen für dieses Vorgehen bildet ein von Henczel (2000) entwickeltes Modell zur Durchführung eines Information Audits. Hervorzuhebende Ergebnisse der Arbeit stellen zum Einen das Erfassungsmodell für Informationen und Prozesse dar (Informationsmatrix) und zum Anderen das Visualisierungsmodell der erfassten Daten.
Augmented Reality erfreut sich wachsender Beliebtheit. Zusatzinformationen in HMDs, Windschutzscheiben oder im Kamerabild des Smartphones oder Tablets sind hier die nennenswertesten Anwendungsfälle. Um eine Einblendung korrekt anzuzeigen, ist es notwendig die Position und Orientierung (Pose) der Kamera im Raum zu erfassen. Dies geschieht zurzeit hauptsächlich unter Zuhilfenahme von Markern. Dabei werden vordefinierte Marker im Raum positioniert und das System angelernt, wie es diese zu interpretieren hat. Der nächste Schritt ist es ohne Marker auszukommen. Hierbei wird von dem markerlosen Tracking gesprochen. Anstelle von künstlichen Markern werden natürliche Objekte der realen Umgebung als Referenzpunkte genutzt, um die Kamerapose zu bestimmen. Dadurch lässt sich dieses Verfahren flexibel und dynamisch einsetzen. Es wird zwar auf die Zuhilfenahme von Markern verzichtet, aber ein größeres Vorwissen über die Szenerie ist notwendig. Dies wird über technische Maßnahmen realisiert und/oder durch Interaktion des Benutzers. Beides ist nicht komfortabel oder effizient in der Verwendung eines solchen Systems und ist ein Grund dafür, warum markerloses 3D-Tracking nach wie vor ein Forschungsbereich ist.
An diesem Punkt setzt diese Arbeit an. Es wird ein Ansatz vorgeschlagen, der lediglich eine Menge von 2D-Feature und eine Menge von 3D-Feature eines Objekts benötigt, um die initiale Pose zu finden. Es sind keine weiteren technischen Hilfen notwendig und auch auf die Interaktion mit dem Benutzer wird verzichtet. Die 2D-Feature, wie auch die 3D-Feature, können auf beliebige Art gewonnen werden.
Die Idee ist es, diese zwei Mengen mit sechs Korrespondenzen zu verbinden. Anhand dieser Korrespondenzen kann eine Pose geschätzt werden. Mit der erhaltenen Pose kann jedes 3D-Feature auf Bildkoordinaten abgebildet werden, wodurch sich die geschätzte Pose bewerten lässt. Dabei wird der Abstand zwischen abgebildetem 3D-Feature und seinem zugehörigen 2D-Feature gemessen. Jede Korrespondenz wird so bewertet und die Ergebnisse aufsummiert. Je niedriger die Summe, desto besser ist die Pose. Es hat sich gezeigt, dass ein Wert von zehn Pixeln bereits ausreichend ist, um eine Pose als richtig zu bewerten.
Da es sehr viele Möglichkeiten gibt, diese sechs Korrespondenzen zwischen beiden Mengen aufzubauen, muss dieses Verfahren optimiert werden. Dies geschieht mit einem genetischen Algorithmus. In dem Testszenario arbeitet das fertige System sehr zuverlässig. Es wird eine Trefferquote von ca. 90%, bei einer Laufzeit von ungefähr zwölf Minuten, erreicht. Ohne Optimierung kann das Finden der initialen Pose schnell mehrere Jahre dauern.
Autonome Systeme, wie Roboter, sind bereits Teil unseres täglichen Lebens. Eine Sache, in der Menschen diesen Maschinen überlegen sind, ist die Fähigkeit, auf sein Gegenüber angemessen zu reagieren. Dies besteht nicht nur aus der Fähigkeit zu hören, was eine Person sagt, sondern auch daraus, ihre Mimik zu erkennen und zu interpretieren.
In dieser Bachelorarbeit wird ein System entwickelt, welches automatisch Gesichtsausdrücke erkennt und einer Emotion zuordnet. Das System arbeitet mit statischen Bildern und benutzt merkmalsbasierte Methoden zur Beschreibung von Gesichtsdaten. In dieser Arbeit werden gebräuchliche Schritte analysiert und aktuelle Methoden vorgestellt. Das beschriebene System basiert auf 2D-Merkmalen. Diese Merkmale werden im Gesicht detektiert. Ein neutraler Gesichtsausdruck wird nicht als Referenzbild benötigt. Das System extrahiert zwei Arten von Gesichtsparametern. Zum einen sind es Distanzen, die zwischen den Merkmalspunkten liegen. Zum anderen sind es Winkel, die zwischen den Linien liegen, die die Merkmalspunkte verbinden. Beide Arten von Parametern werden implementiert und getestet. Der Parametertyp, der die besten Ergebnisse liefert, wird schließlich in dem System benutzt. Eine Support Vector Machine (SVM) mit mehreren Klassen klassifiziert die Parameter. Das Ergebnis sind Kennzeichen von Action Units des Facial Action Coding Systems (FACS). Diese Kennzeichen werden einer Gesichtsemotion zugeordnet.
Diese Arbeit befasst sich mit den sechs Basisgesichtsausdrücken (glücklich, überrascht, traurig, ängstlich, wütend und angeekelt) plus dem neutralen Gesichtsausdruck. Das vorgestellte System wird in C++ implementiert und an das Robot Operating System (ROS) angebunden.
Der Zweck dieser Bachelorarbeit ist es Lisa - dem Roboter, der von der Arbeitsgruppe Aktives an der Universität Koblenz-Landau, Campus Koblenz, für die Teilnahme an der @home Liga des Robocups entwickelt wurde - das Zeichnen beizubringen. Dies erfordert die Erweiterung des Robbie Software Frameworks und den Einsatz der Hardware-Komponenten des Roboters. Unter Beachtung eines möglichen Einsatzes für die Open Challenge des RoboCups @home, sind die Ziele ein Blatt Papier mit Lisas optischem Sensor, einer Microsoft Kinect, zu erkennen und auf diesem zu Zeichnen unter Benutzung des Neuronics Katana Roboterarms. Zusätzlich muss eine Stifthalterung für den Gripper des Arms konstruiert werden.
Beschrieben in dieser Arbeit sind die notwendigen Schritte, um eine Zeichenvorlage in Bewegungen des Arms umzuwandeln, welche wiederum dazu führen, dass ein Bild gezeichnet wird durch den am Arm montierten Stift auf dem Blatt Papier, welches vom optischen Sensor durch Bilderkennung entdeckt wurde. Ermöglicht wurde es ein Object, welches aus einer beliebigen Anzahl gerader Linien besteht und aus einer SVG-Datei gelesen wird, auf ein weißes Blatt Papier zu zeichnen, das auf einer dunkleren Oberfläche erkannt wird, umgeben von anderen Gegenständen und Texturen.
Customization is a phenomenon which was introduced quite early in information systems literature. As the need for customized information technology is rising, different types of customization have emerged. In this study, customization processes in information systems are analyzed from a perspective based on the concept of open innovation. The objective is to identify how customization of information systems can be performed in an open innovation context. The concept of open innovation distinguishes three processes: Outside-in process, inside-out process and coupled process. After categorizing the selected journals into three core processes, the findings of this analysis indicated that there is a major concentration on outside-in processes. Further research on customization in coupled and inside-out processes is recommended. In addition, the establishment of an extensive up-to-date definition of customization in information systems is suggested.
Geschäftsprozessmanagement (GPM) gilt in der heutigen Unternehmensentwicklung als einer der wichtigsten Erfolgsfaktoren und wird von modernen Unternehmen auch als solcher wahrgenommen [vgl. IDS Scheer 2008]. Bereits 1993 waren Geschäftsprozesse für Hammer und Champy der zentrale Schlüssel zur Reorganisation von Unternehmen [vgl. Hammer, Champy 1993, S. 35]. Den Paradigmenwechsel von der Aufbau- zur Ablauforganisation und letztendlich zur etablierten "Prozessorganisation" wurde von Gaitanides schon 1983 erstmals beschrieben [vgl. Gaitanides 2007].
Trotz einer breiten und tiefen Behandlung des Themengebiets "Geschäftsprozessmanagement" in der wissenschaftlichen Literatur, gestaltet es sich schwierig, einen schnellen Überblick in Bezug auf Vorgehensweisen zur Einführung von Geschäftsprozessmanagement zu erhalten. Dies ist im Wesentlichen der Tatsache geschuldet, dass in der Literatur "Geschäftsprozessmanagement" in unterschiedlichen wissenschaftlichen Bereichen wie z.B. der Organisationslehre [vgl. z.B. Vahs 2009; Schulte-Zurhausen 2005], der Betriebswirtschaft [vgl. z.B. Helbig 2003; Schmidt 2012] oder der Informatik bzw. Wirtschaftsinformatik [vgl. z.B. Schmelzer, Sesselmann 2008; Schwickert, Fischer 1996] behandelt und der Aufbau eines GPMs anhand unterschiedlicher Themenschwerpunkte beschrieben wird. Insbesondere gestaltet sich die Suche nach Literatur zu Geschäftsprozessmanagement speziell für kleine und mittlere Unternehmen (KMU) und zu Einführungsmethoden von BPM in KMU als schwierig. Die Kombination "Vorgehensweisen zur Einführung von Geschäftsprozessmanagement bei KMU" ist in der wissenschaftlichen Literatur nicht aufzufinden. Mit der vorliegenden Arbeit soll ein erster Ansatz geschaffen werden, diese Lücke zu schließen. Diese Arbeit zielt darauf ab, anhand einer Auswahl von Vorgehensweisen zur Einführung von Geschäftsprozessmanagement deren charakteristische Eigenschaften zu analysieren und einander gegenüberzustellen. Zudem erfolgt eine Bewertung auf die Anwendbarkeit einzelner Vorgehensweisen auf kleine und mittlere Unternehmen anhand zuvor erhobener, für KMU wichtiger Anforderungen an BPM und dessen Einführung.
Auf Basis der dieser Arbeit zugrundeliegenden Bewertungskriterien schneidet die Vorgehensweise nach Schulte-Zurhausen im Gesamtergebnis am besten ab. Dennoch ist festzustellen, dass jede der untersuchten Vorgehensweisen Stärken und Schwächen bzgl. der Eignung für ein KMU aufweist. Dies hat zur Folge, dass bei der Einführung eines Geschäftsprozessmanagements jede der untersuchten Vorgehensweisen einer Anpassung und Adaption auf die Situation eines KMUs bedarf. Aus diesem Grund empfiehlt der Autor dieser Arbeit einem KMU, eine Vorgehensweise als grundlegende Vorgehensweise der Einführung festzulegen (in diesem Fall die Vorgehensweise nach Schulte-Zurhausen) und diese durch jeweils geeignete Aspekte der weiteren Vorgehensweisen anzureichern bzw. zu vervollständigen.
Aufgrund der zunehmenden Verbreitung des mobilen Internets, können E-Mails direkt von mobilen Geräten gesendet und empfangen werden. Inhalte digitaler Kommunikation sollten verschlüsselt werden, um zu verhindern, dass sie abgefangen und manipuliert werden. Entsprechende Verfahren setzen kryptographische Schlüssel ein, die zuvor ausgetauscht werden müssen. Es muss sichergestellt sein, dass ein kryptographischer Schlüssel tatsächlich der Person zugeordnet ist, zu der er angeblich gehört. Im Rahmen dieser Arbeit wurde ein Konzept für eine Smartphone-Anwendung entwickelt, um kryptographische Schlüssel im persönlichen Kontakt auszutauschen. Das Konzept besteht aus dem Entwurf eines komponentenbasierten Frameworks, mit dem sich Daten sicher austauschen lassen. Das Framework wurde anschließend erweitert und als Grundlage für die Entwicklung einer Smartphone-Anwendung eingesetzt. Die Anwendung ermöglicht es, kryptographische Schlüssel zu erzeugen, zu verwalten und im persönlichen Kontakt auszutauschen. Für den Austausch wird die Near Field Communication genutzt. Durch implementierte Sicherheitsmechanismen ist gewährleistet, dass der Schlüsselaustausch weder abgehört, noch gezielt manipuliert werden kann. In Zukunft können das Konzept und die Anwendung erweitert und angepasst werden, um sie in anderen Arbeiten einzusetzen.
Das Ziel der Bachelor-Arbeit ist es, einen existierenden sechsbeinigen Kleinroboter zu programmieren, der dann in der Lage sein soll, seine Umgebung autonom zu explorieren und eine Karte selbiger zu erstellen. Zur Umgebungswahrnehmung soll ein Laserscanner integriert werden. Die Erstellung der Karte sowie die Selbstlokalisation des Roboters erfolgt durch Anbindung des Sensors an ein geeignetes SLAM (Simultaneous Localization and Mapping) Verfahren. Die Karte soll die Grundlage für die Pfadplanung und Hindernisvermeidung des Roboters bilden, die ebenfalls im Rahmen dieser Arbeit entwickelt werden sollen. Dazu werden sowohl GMapping als auch Hector Mapping verwendet und getestet.
In der Arbeit wird zudem ein xplorationsalgorithmus beschrieben, mit welchem der Roboter seine Umgebung erkunden kann. Die Umsetzung auf dem Roboter erfolgt innerhalb des ROS (Robot Operating System) Frameworks auf einem "Raspberry Pi" Miniatur-PC.
Diese Bachelor-Thesis beschäftigt sich mit der Entwicklung eines Programms, welches den Zahnarzt durch die AR bei seiner Behandlung am Patienten unterstützen soll. Um eine angemessene theoretische Grundlage zu schaffen, wird zunächst der aktuelle Stand der Technik erläutert, der für dieses Projekt relevant ist. Daraufhin werden mögliche zukünftige Technologien vorgestellt, welche die hypothetische Basis dieser Arbeit darstellen. In dem darauffolgenden Unterkapitel wird die Auswahl der Systeme erläutert, die für dieses Projekt verwendet wurden. Der Hauptteil beschäftigt sich zunächst mit dem Vorgehen in der Vorbereitungs- und Planungsphase, um daraufhin den Programmablauf der Applikation sukzessiv vorzustellen. Dabei wird auch auf die Probleme eingegangen, die während des Programmierens entstanden sind. In dem reflektierenden Auswertungsteil werden Verbesserungsvorschlägen und Zusatzfunktionen für das geschriebene Programm präsentiert.
Es werden Rezipienten-Kommentare der Videoplattform YouTube zu den jeweils fünf erfolgreichsten Liedern der Jahre 2011 und 2012 nach nostalgischen Inhalten untersucht. Diese als nostalgisch identifizierten Kommentare werden inhaltlich analysiert und ausgewertet. Es soll herausgefunden werden, ob nostalgische Inhalte in Musikstücken Erfolgsfaktoren sind. Mittels des Uses-and-Gratifications-Ansatzes wird ermittelt welchen Zweck Rezipienten mit dem Konsum von Nostalgie auslösender Musik verfolgen. Musik ist ein deutlich stärkerer Nostalgieauslöser als das Musikvideo, wohingegen Nostalgie positiven und/oder negativen Affekt auslöst. Zudem wurde persönliche Nostalgie sehr viel häufiger identifiziert als historische Nostalgie. Weiterhin hat das Liedelement Liedtext ein deutlich größeres persönlich-nostalgisches Potential als andere Liedelemente. Personen und bedeutsame Ereignisse scheinen die häufigsten Objekte während persönlich-nostalgischer Träumerei zu sein. Rezipienten konsumieren nostalgische Musik, um in ihnen gewollt positive und/oder negative Emotionen hervorzurufen. Somit scheint Nostalgie in Musik bestimmte Bedürfnisse der Rezipienten zu befriedigen und es kann angenommen werden, dass Nostalgie als ein Erfolgsfaktor angesehen werden kann.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
Die Prinzipien des Projektmanagements befinden sich aufgrund der Einflüsse wirtschaftlicher Rahmenbedingungen und der technologischen Entwicklung im Umbruch [Wills 1998 & Jons-son et al. 2001]. Die zunehmende internationalisierung, verkürzte Markteinführungszeiten (Time-to-Market), sich ändernde Arbeitskosten und die steigende Einbeziehung von Fachkräf-ten aus verschiedenen geografischen Standorten, treiben die Wandlungen der Projektland-schaft an [Evaristo/van Fenema 1999]. Resultierend daraus, wird die Nutzung kollaborativer Technologien ein entscheidender Faktor für den Erfolg eines Projektes [Romano et al. 2002]. Die bisherige Forschung zum Thema kollaborative Technologien für Projektmanagementzwe-cke, fokussiert vor allem die Entwicklung von modellartigen, allgemeingültigen Systemarchi-tekturen zur Eruierung der Anforderungen an ein speziell entwickeltes kollaboratives Projekt-managementsystem. Diese Arbeit untersucht die Herausforderungen und Vorteile, die aus der Einführung einer Standard-Business-Software als kollaboratives Projektmanagementsystem in einem mittel-ständischen Unternehmen resultieren.
Im Rahmen der vorliegenden Arbeit wurde eine Umfrage bei Absolventen des Fachbereichs 4: Informatik der Universität Koblenz-Landau konzipiert, durchgeführt und ausgewertet. Zielsetzung war die Unterstützung der Task Force Bachelor Master, welche sich mit der Reakkreditierung der Studiengänge befasst hat. Zunächst wurden mithilfe von Desk Research die theoretischen Voraussetzungen zur Konzipierung der Umfrage geschaffen. Weiterhin wurden vergangene Befragungen ähnlicher Art recherchiert, die teilweise als Vorlage dienten. Der unter Berücksichtigung aktueller Veränderungen entstandene Umfrage-Prototyp wurde mithilfe eines Pre-Tests weiter verbessert. Die finale Version wurde schließlich in das OpenSource-Tool LimeSurvey implementiert, welches als technische Grundlage für die Durchführung der Befragung diente. Die Empfänger der Teilnahmeaufforderung an der Umfrage waren Mitglieder von Alumnivereinen sowie Absolventen aus den vorangegangen Jahren.rnAus der Umfrage konnten Erkenntnisse über die Zufriedenheit der Absolventen mit ihrem Studiengang gewonnen werden, aber auch über die Studiensituation im Allgemeinen. Darüber hinaus wurde die Meinung zu zwei neuen Master-Studiengängen, E-Government und Web Science, abgefragt.
Die Resonanz war aus vier Studiengängen stark genug, um aussagekräftige Ergebnisse liefern zu können, aus fünf anderen konnten nur die studiengangübergreifenden Aussagen ausgewertet werden. Insgesamt gab es eine hohe Zufriedenheit der Studierenden mit ihrem Studium. Es konnten aber auch einige Verbesserungsvorschläge und Kritikpunkte gesammelt werden. Diese bezogen sich verstärkt auf die Themen Internationalität, Gewichtung der Lehrinhalte, Wahlfreiheit/Spezialisierung sowie Praxisrelevanz.
Als Ergebnis der Ausarbeitung ließ sich eine Handlungsempfehlung aussprechen, die in Kombination mit den Detailergebnissen aus der Befragung zu einer Verbesserung der Qualität und des Bedarfs der Lehre im Fachbereich 4: Informatik führen soll.
Verwaltungen, Unternehmen, Non-Profits sowie private Stakeholder sind in unterschiedlichen Formen und Rollen in E-Government Projekten beteiligt oder davon betroffen. E-Government Projekte zeichnen sich u.a. dadurch aus, dass sie eine komplexe Stakeholder-Struktur aufweisen, infolgedessen hängt der Erfolg von IKT-Projekten maßgeblich von der Einbindung einzelner Stakeholdergruppen in Gestaltungsprozesse der E-Government Lösung ab. In diesem Zusammenhang wird eine größere Stakholderbeteiligung angestrebt, hilfreiche Initiativen wie Open Government und Good Governance treiben diesen Prozess voran. Die Ermittlung der Stakeholdergruppen durch eine sog. Stakeholder-Analyse ist methodisch unzureichend entwickelt, dabei ist es wichtig, die Ziele, Erwartungen und Machteigenschaften der Projektbeteiligten und Projektbetroffenen zu analysieren.
Das Ziel dieser Bachelorarbeit ist es, die verbreiteten Stakeholder-Theorien, Stakeholderbeteiligungsansätze sowie die Stakeholderanalyse aufzugreifen und auf Verwaltungsebene zu übertragen und die Anwendbarkeit zu überprüfen. Es werden geeignete Mappingverfahren für die Einordnung der Stakeholdergruppen mittels Stakeholdertheorien von Freeman, Mitchel et. al. und Rowley erläutert und systematisiert. Dabei werden mittels Literaturanalyse wichtige Stakeholderkonzepte erläutert und deren Anwendung an konkreten E-Government Projekten überprüft, um daraus Anregungen und Handlungsempfehlungen für zukünftige E-Government Projekte zu generieren. Außerdem gilt es herauszuarbeiten, wie Stakeholdergruppen in die Entwicklungsprozesse einzelner E-Government Projekte mittels Web 2.0 aktiv eingebunden werden können. Die Rolle von Web 2.0 Anwendungen als ein zusätzlicher Kommunikationskanal und Beteiligungsinstrument wird aufgezeigt und bewertet.
Es soll ein Leitfaden für erfolgreiche Projektbeteiligung von Stakeholdern entwickelt werden. Dieser soll Vorgehensmodelle zur Stakeholderidentifikation, Stakeholdergruppierung und "priorisierung sowie Handlungsanweisungen zum Web 2.0 Einsatz aufzeigen.
Die wesentliche Zielsetzung der Bachelor-Arbeit war es, entlang der Anforderungen an DMS/WMS aus dem DOMEA-Konzept und aus dem Kommunalen Gebietsrechenzentrum Koblenz (KGRZ) verschiedene Systeme zu evaluieren. Weiteres Ziel war es, ein System, das die Anforderungen am besten erfüllt, zu identifizieren. Entlang der Evaluation wurde exemplarisch der Workflow des KGRZ untersucht, bewertet und ggf. angepasst. Des Weiteren wurde auf die Frage eingegangen, ob ein einheitliches System im Rahmen des Föderalismus nicht nur in Koblenz sondern auch Rheinland-Pfalz weit eingesetzt werden kann, oder ob ämterspezifische Lösungen vorteilhafter sind.
Prozedurale Synthese, das Erzeugen von Computerspielinhalten durch die Verwendung von pseudo-zufälligen Algorithmen, ist ein Themenbereich mit wachsendem Interesse in wirtschaftlichen und akademischen Kreisen, verdankt sowohl durch ihre Eignung zur Senkung von Entwicklungszeit und -kosten als auch durch die Möglichkeit, prozedurale Synthese zur Erzeugung von interessanten und einmaligen Spielwelten einzusetzen. Obwohl viele aktuelle Computerspiele prozedural generierte Inhalte verwenden, gebrauchen nur wenige diese Methoden zur Erzeugung realistischer Weltraum-Spielumgebungen, und die Umsetzbarkeit der Anwendung prozeduraler Synthese zur Entwicklung eines solchen Spiels wurde untersucht. Aktuelle Modelle aus der Forschung wurden verwendet, um eine in Echtzeit laufende astronomische Simulation in Python zu entwickeln, welche Stern- und Planetenobjekte in einer fiktiven Galaxie prozedural erzeugt, die als Spielwelt eines einfachen 2DWeltraumspiels dient, in welchem der Spieler nach intelligentem Leben suchen muss.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Hinsichtlich der rapide anwachsenden Menge an jährlich produzierten Daten und der wachsenden Akzeptanz des Enterprise 2.0, müssen sich Unternehmen immer stärker mit dem Management ihrer Daten befassen. Inhalt, der unkoordiniert erstellt und abgelegt wird, kann zu Datensilos führen (Williams & Hardy 2011, S.57), welche lange Suchzeiten, unzugängliche Daten und in der Konsequenz monetäre Verluste hervorrufen können. Das "sich ausdehnende digitale Universum" zwingt Unternehmen zur Entwicklung neuer Archivierungslösungen und Records Management Richtlinien (Gantz et al. 2007, S.13). Enterprise Content Management (ECM) ist das Untersuchungsfeld, welches sich mit diesen Anforderungen beschäftigt. Es ist im wissenschaftlichen Kontext des Enterprise Information Management angesiedelt. Ziel dieser Bachelor-Arbeit ist es, herauszufinden in welchem Umfang aktuelle Enterprise Content Management Systeme (ECMS) diese neuen Anforderungen, vor allem die Archivierung von Daten aus dem Enterprise 2.0, unterstützen. Zu diesem Zweck wurden drei Szenarien erstellt, mit deren Hilfe zwei verschiedene Arten von ECMS (ein Open Source - und ein proprietäres System), ausgewählt auf Grundlage einer kurzen Marktübersicht, evaluiert werden sollen. Die Anwendung der Szenarien zeigt, dass sich die Software Anbieter über die Probleme der Industrie im Klaren sind: beide Programme stellen Funktionen zur Archivierung von Daten aus online Teamarbeit sowie Möglichkeiten zum Records Management zur Verfügung. Aber die Integration beider Funktionalitäten ist nicht oder nur unvollständig gelöst. An dieser Stelle werden neue Fragen - wie z.B. "Welche im Enterprise 2.0 anfallenden Daten besitzen die Wichtigkeit, als "Business Record" gespeichert zu werden?" - aufgeworfen und müssen in zukünftiger Forschung betrachtet werden.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
The goal of this Bachelor thesis is to implement and evaluate the "Simulating of Collective Misbelief"-model into the NetLogo programming language. Therefore, the model requirements have to be specified and implemented into the NetLogo environment. Further tool-related re-quirements have to be specified to enable the model to work in NetLogo. After implementation several simulations will be conducted to answer the research question stated above.
Systematische Untersuchung der Android-Plattform im konzeptuellen Rahmen des 101companies Projektes
(2012)
In der vorliegenden Arbeit untersuche ich die Android-Plattform. Ich demonstriere drei verschiedene Implementationen, die sowohl Features und Technologien des 101companies Projektes abdecken als auch neue Android spezifische Besonderheiten in das Projekt integrieren. Die Implementationen zeigen Anwendungen die in der realen Welt benutzt werden können.
Aktuell stehen nur wenige Informationen über die Verbreitung von Cloud Computing in deutschen Hochschulen zur Verfügung. Ein besseres Verständnis vom Stand der Technik in diesem Bereich würde die Modernisierung der Hochschulen in Deutschland und die Entwicklung von geeigneteren Cloud Produkten und neuen Geschäftsmodellen für diese Nische ermöglichen. Zu diesem Zweck wird eine Literaturrecherche über Cloud Computing und IT-Verbreitung und eine empirische Untersuchung mit einem Online-Fragebogen an Hochschulen in Deutschland durchgeführt, um den aktuellen Stand von Cloud Computing an deutschen Hochschulen zu untersuchen.
Ebenso fragt die Untersuchung nach den Chancen und Risiken, die die Mitarbeiterinnen und Mitarbeiter von Hochschulrechenzentren bei der Nutzung von Cloud Computing sehen. Im Anschluss daran werden Experten aus Universitäten und Unternehmen interviewt, um die gesammelten Informationen vom Online-Fragebogen und während der Forschung zu erweitern. Die erwarteten Ergebnisse werden dazu dienen, um eine Empfehlung für Hochschulen in Deutschland zu verfassen, ob sie Cloud Technologien schon benutzen sollen oder nicht. Darüber hinaus wird eine Liste mit kritischen Leitfragen vorgestellt, die vor der Migration zum Cloud Computing berücksichtig werden sollte.
Die Thesis beschäftigt sich mit der Stellung von Customer Relationship Management-Systemen (CRM-Systemen) in Unternehmen und den Möglichkeiten die diese bieten. Die Motivation der Arbeit resultiert aus dem Anliegen den Wert von CRM-Systemen einordnen zu können, zu ermitteln inwieweit ein solches System Unternehmensprozesse unterstützen, beziehungsweise verbessern kann und an welche Bedingungen die Nutzung eines solchen Systems geknüpft ist. Für den konkreten Anwendungsfall ergibt sich die Motivation aus der Möglichkeit selbstständig ineffiziente Prozesse zu optimieren und zum Abschluss der Arbeit Perspektiven aufzuzeigen, die die Unternehmensabläufe verbessern und zu einer größeren Wertschöpfung beitragen.
Die Arbeit beschäftigt sich mit den kundenbezogenen Unternehmensprozessen des Unternehmens Alere und deren Qualität in Hinblick auf die zukünftige Einführung eines CRM-Systems. Im Moment existieren kaum einheitliche Anforderungen, die die Prozesse erfüllen müssen. Deshalb ist es nicht möglich eine Aussage über die Qualität der Prozesse zu machen. Diese Umstände verlangen nach einem Tool, das die Qualität der Prozesse sicherstellt und in der Lage ist, vorgegebene Anforderungen einzuhalten. Diese Lücke soll in Zukunft das CRM-System ausfüllen. Die Thesis soll einen Einblick in das Thema gewähren um einen Eindruck von den Vorteilen von CRM-Systemen zu vermitteln.
Anschließend muss, ausgehend von dem Anwendungsfall und der Motivation, die Identifikation von Schwachstellen in den Prozessabläufen erfolgen. Aus den gewonnenen Daten wiederum soll eine Optimierung der kundenbezogenen Unternehmensprozesse und -abläufe mit Hilfe der Eigenschaften des CRM-Systems erfolgen. Da mehrere Abteilungen des Unternehmens direkt oder indirekt mit dem Kunden in Kontakt kommen, liegt das Hauptaugenmerk auf Dokumentation, der zentralen Speicherung der Kundendaten, sowie der verlustfreien Kommunikation zwischen Kunden und Mitarbeiter, beziehungsweise unter den Mitarbeitern. Die Arbeit soll folgende Ergebnisse liefern: Einen Anforderungskatalog für die kundenorientierten Prozesse, der auf erarbeiteten Grundlagen basiert.
Weiterhin die Modellierung der Prozesse und einen Schwachstellenkatalog der die identifizierten Schwächen der Prozesse beinhaltet. Davon ausgehend einen Anforderungskatalog für die CRM-System gestützten Prozesse und schließlich eine Modellierung der optimierten Prozesse abgeschlossen durch die Diskussion und Empfehlungen.
Parallelmanipulatoren, welche den Stewartmechanismus nutzen, ermöglichen die präzise Ausführung von Aufgaben in einem begrenzten Arbeitsraum. Durch die Nutzung von sechs Freiheitsgraden wird eine hohe Flexibilität der Positionierung erreicht. Die robuste Konstruktion sorgt zudem für ein sehr gutes Verhältnis von Gewicht zu Nutzlast.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer flexiblen Softwarelösung zur Ansteuerung einer Stewartplattform. Dies umfasst ein Modell der Plattform, welches zu Testzwecken dient. Es werden zunächst die mathematischen Grundlagen der Inversen Kinematik erarbeitet aufbauend auf einem zuvor definierten Bewegungsmodell. Es folgt die Entwicklung einer generischen Architektur zur Übermittlung und Auswertung von Steuerkommandos vom PC. Die Implementierung geschieht in C und wird in verschiedene Module aufgeteilt, welche jeweils einen Aufgabenbereich der Positionskontrolle oder der Hardwarekommunikation abdecken. Es wird zudem eine graphische Nutzeroberfläche vorgestellt, über die man die Position der Plattform manuell verändern kann. Eine automatische Ansteuerung wird im folgenden Anwendungsbeispiel beschrieben, wo die Plattform mit frequentiellen Beschleunigungswerten einer Achterbahnsimulation beliefert wird.
Der Forschungsbereich E-Government gewinnt in Deutschland und Europa immer mehr an Bedeutung. Die Anzahl der Akteure wächst ständig, sodass es für Außenstehende und Interessierte schwierig ist, den Überblick zu behalten. Es ist diese enorme Informationsflut, die eine Forschungslandkarte für den E-Government-Bereich für sinnvoll erscheinen lässt. Auf dieser Internetplattform soll ein Überblick über alle relevanten Akteure, die im Bereich E-Government Forschung betreiben, gegeben werden. Um einen vollständigen Überblick geben zu können, müssen auch Informationen angezeigt werden, die in der Vergangenheit gültig waren. Voraussetzung hierfür ist die Historisierung relevanter Inhalte. Hierbei wird bei Änderung eines Objekts oder Attributs das Objekt oder Attribut nicht überschrieben, sondern eine neue Version in der Datenbank angelegt. Auf diese Weise sind die Benutzer in der Lage, die Forschungslandkarte zeitbezogen zu navigieren. Erfahrungen haben gezeigt, dass die Historisierung von Webinhalten bereits bei der konzeptionellen Phase und beim Design einer Online-Plattform eingeplant und modelliert werden soll, um so den temporalen Anforderungen zu genügen. Diese Bachelorarbeit beschäftigt sich mit der Herausforderung der Historisierung der Inhalte der Forschungslandkarte und legt ein Konzept vor, das die temporale Datenhaltung bei der Konzeptionierung der Plattform berücksichtigt.
Die Erkennung von Bewegungen mit einem Smartphone ist durch die internen Sensoren, mit denen es ausgestattet ist, ohne externe Sensoren möglich. Zunächst werden vergangene Untersuchungen und deren Verfahrensweise betrachtet. Von diesen Untersuchungen wird die hier verwendete Umsetzung der Bewegungserkennung abgeleitet und beschrieben. Ein Großteil der Literatur verwendet ausschließlich den Beschleunigungssensor für die Bewegungserkennung. Diese Bachelorarbeit untersucht dazu den Nutzen weiterer Sensoren, wie z.B. das magnetische Feld, die lineare Beschleunigung oder das Gyroskop. Die Bewegungserkennung erfolgt durch maschinelles Lernen mit Klassifizierungsalgorithmen. Es werden Decision Tree, Naive Bayes und Support Vector Machines verwendet. Zunächst werden die benötigten Sensordaten mit Hilfe einer eigens entwickelten Applikation von Testpersonen gesammelt und gespeichert. Diese Daten werden als Trainingsdaten für die Klassifizierungsalgorithmen benötigt.
Das Ergebnis ist ein Modell, das die Struktur der gelernten Daten enthält. Validiert werden die Modelle mit Testdatensätzen, die sich von den Trainingsdatensätzen unterscheiden. Die Ergebnisse bestätigen vergangene Untersuchungen, dass die Daten des Beschleunigungssensors ausreichend sind, um Bewegungen sehr genau erkennen zu können. Orientierung, Gyroskop und die lineare Beschleunigung hingegen sind nur bedingt für die Bewegungserkennung einsetzbar. Außerdem scheint für eine geringe Anzahl an Testdaten der Decision Tree am besten geeignet zu sein, wenn Bewegungen von Benutzern erkannt werden sollen, von denen keine Trainingsdaten bei der Erstellung des Modells vorhanden sind.
Mit der Reakkreditierung der Studiengänge im Fachbereich Informatik der Universität Koblenz-Landau werden zukunftsweisend neue Studiengänge angeboten. Für die weitere Planung und Gestaltung der einzelnen Studiengänge ist die Meinung der Studierenden ein wesentlicher Indikator. Informationen zu den neuen Studiengängen während des Prozesses der Akkreditierung sind jedoch für Studierende nicht vorhanden. Studierende haben ein Interesse an den neuen Studiengängen und der neuen Prüfungsordnung und darüber hinaus wäre eine aktive Beteiligung im Entscheidungsprozess wünschenswert. Das Konzept der E-Partizipation ist eine Möglichkeit dieses Bedürfnis zu befriedigen. Es bietet die Gelegenheit über das Thema der Akkreditierung zu diskutieren und eigene Ideen und Meinungen in den Entscheidungsprozess einzubringen. Die Bachelorarbeit beschreibt ein E-Partizipationsprojekt an der Universität Koblenz-Landau über die Akkreditierung die Studiengänge des Fachbereichs Informatik. Unter Nutzung des Referenz-Frameworks von Scherer und Wimmer (2011) wird dieses Projekt durchgeführt. Weiterhin wird der Akkreditierungsprozess modelliert, um ein besseres Verständnis über den ganzen Prozess zu erhalten und Möglichkeiten zu identifizieren das E-Partizipationsprojekt zu integrieren. Die Ergebnisse des Projekts werden mit einer Online-Umfrage über die E-Partizipationsplattform erhoben. Mit den Ergebnissen der Umfrage und den Erfahrungen, die bei der Durchführung des Projekts gesammelt wurden, werden Empfehlungen für weitere E-Partizipationsprojekte formuliert. Zusätzlich wird das Referenz-Framework von Scherer und Wimmer (2011) kritisch betrachtet.