Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (60)
- Bachelorarbeit (57)
- Diplomarbeit (33)
- Masterarbeit (25)
- Studienarbeit (7)
Sprache
- Deutsch (182) (entfernen)
Schlagworte
- Customer Relationship Management (3)
- Informatik (3)
- Mikrocontroller AVR (3)
- Routing (3)
- Simulation (3)
- Akkreditierung (2)
- Android <Systemplattform> (2)
- Augmented Reality (2)
- Computersimulation (2)
- DOCHOUSE (2)
Institut
- Fachbereich 4 (182) (entfernen)
Die weltweite Zugänglichkeit und umfangreiche Nutzung des Internets machen dieses Medium zu einem effizienten und beliebten Informations-, Kommunikations-, und Verkaufsinstrument. Immer mehr Menschen und Organisationen versuchen, diese Vorzüge durch eine eigene Website für ihre Zwecke zu verwenden. Als hilfreiches Mittel zur Optimierung von Webpräsenzen bewährte sich in den letzten Jahren der Einsatz von Web-Analytics-Software. Durch diese Software sind Websitebetreiber in der Lage, Informationen über die Besucher ihrer Website und deren Nutzungsverhalten zu sammeln und zu messen. Das angestrebte Resultat sind Optimierungsentscheidungen auf Basis von Daten an Stelle von Annahmen und wirkungsvolle Testmöglichkeiten.
Für den Bereich des E-Commerce existieren bis dato zahlreiche wissenschaftliche und praxiserprobte Hilfestellungen für Web-Analytics-Projekte. Informationswebsites hingegen werden trotz ihrer Wichtigkeit nur vereinzelt thematisiert. Um diesem Defizit entgegenzuwirken, hat Hausmann 2012 das Framework for Web Analytics entwickelt, welches dem Anwender ein hilfreiches Referenzmodell für sein Web Analytics-Vorhaben bietet. Diesen Ansatz weiter voranzutreiben ist das Ziel der Abschlussarbeit. Dazu wird mithilfe einer Literaturanalyse und einer Fallstudie das Framework validiert und ergänzt, sowie weitere Handlungsempfehlungen identifiziert. Als Ergebnis werden die wichtigsten Erkenntnisse dieser Forschung zusammengefasst und für den zukünftigen Gebrauch festgehalten.
Die Personendetektion spielt eine wichtige Rolle in der Interaktion zwischen Mensch und Maschine. Immer mehr Roboter werden in menschlichen Umgebungen eingesetzt und sollen auf das Verhalten von Personen reagieren. Um das zu ermöglichen, muss ein Roboter zunächst in der Lage sein, die Person als solche zu erkennen. Diese Arbeit stellt ein System zur Detektion von Personen und ihrer Hände mittels einer RGBD-Kamera vor. Um eine Person zu erkennen werden zu Beginn modellbasierte Hypothesen über mögliche Personenpositionen aufgestellt. Anhand des Kopfes und Oberkörpers werden neu entwickelte Merkmale extrahiert, welche auf dem Relief und der Breite von Kopf und Schultern einer Person basieren. Durch die Klassifikation der Merkmale mit Hilfe einer Support Vector Machine (SVM) werden die Hypothesen überprüft und somit gültige Personenpositionen ermittelt. Dabei werden sowohl stehende, wie auch sitzende Personen anhand ihres sichtbaren Oberkörpers in verschiedenen Posen detektiert. Darüber hinaus wird ermittelt, ob die Person dem Sensor zugewandt oder abgewandt ist. Bei einer zugewandten Person werden zusätzlich, mit Hilfe der Farbinformation und der Entfernung zwischen Hand und Körper, die Positionen der Hände der Person bestimmt. Diese Information kann dann im nächsten Schritt zur Gestenerkennung genutzt werden.
Die Messung der Produktivität von Dienstleistungen ist trotz zunehmender Relevanz immer noch ein wenig durchdrungenes Forschungsfeld. Ursachen hierfür sind vor allem in den besonderen Merkmalen von Dienstleistungen - Immaterialität und Integrativität - zu suchen. Eine typische Dienstleistung der B2B Softwarebranche ist die Anpassung von Systemen an die Bedürfnisse des Kunden - das sogenannte Customizing. Die Ausschöpfung des Customizing-Potentials von Standardsoftware und -produkten und eine stärkere Einbeziehung des Kunden in Innovationsprozesse werden jedoch dadurch erschwert, dass die Produktivität dieser Dienstleistung nur unzureichend mess- und somit bewertbar zu sein scheint.
Der vorliegende Beitrag beschreibt die Entwicklung eines Modells zur Messung der Produktivität von Dienstleistungen auf der Basis unterschiedlicher Vorstudien im Rahmen des CustomB2B Projektes an der Universität Koblenz-Landau.
3D-Kurven-Skelette werden oft verwendet, da sie im Vergleich zu der von Harry Blum 1967 vorgestellten Medialen Axen Transformation, eine Repäsentation der Objekt-Oberfläche darstellen, die in der Weiterverarbeitung weniger kompex und rechenintensiv ist.
Diese Arbeit hat das Ziel, ein Approximation-Verfahren für 3D-Kurven-Skelette zu entwickeln, welches die oben genannten Vorteile enthält und sich auf verschiedene Szenarien von Objektoberflächen-Daten anwenden lässt.
Es werden Rezipienten-Kommentare der Videoplattform YouTube zu den jeweils fünf erfolgreichsten Liedern der Jahre 2011 und 2012 nach nostalgischen Inhalten untersucht. Diese als nostalgisch identifizierten Kommentare werden inhaltlich analysiert und ausgewertet. Es soll herausgefunden werden, ob nostalgische Inhalte in Musikstücken Erfolgsfaktoren sind. Mittels des Uses-and-Gratifications-Ansatzes wird ermittelt welchen Zweck Rezipienten mit dem Konsum von Nostalgie auslösender Musik verfolgen. Musik ist ein deutlich stärkerer Nostalgieauslöser als das Musikvideo, wohingegen Nostalgie positiven und/oder negativen Affekt auslöst. Zudem wurde persönliche Nostalgie sehr viel häufiger identifiziert als historische Nostalgie. Weiterhin hat das Liedelement Liedtext ein deutlich größeres persönlich-nostalgisches Potential als andere Liedelemente. Personen und bedeutsame Ereignisse scheinen die häufigsten Objekte während persönlich-nostalgischer Träumerei zu sein. Rezipienten konsumieren nostalgische Musik, um in ihnen gewollt positive und/oder negative Emotionen hervorzurufen. Somit scheint Nostalgie in Musik bestimmte Bedürfnisse der Rezipienten zu befriedigen und es kann angenommen werden, dass Nostalgie als ein Erfolgsfaktor angesehen werden kann.
Das Forschungsprojekt KMU 2.0 zielt auf die Gestaltung einer modernen Arbeitswelt ab, in der die Mitarbeiter eines Netzwerkes kleiner und mittlerer Unternehmen (KMU) ihre Kompetenzen, Kreativität und Ideen in einen unternehmensübergreifenden Austausch einbringen, um innovative Lösungen für Probleme aus dem Berufsalltag gemeinsam zu generieren. Hierüber gilt es neue Wege und Szenarien für das Management der unternehmensübergreifenden Zusammenarbeit in KMU-Netzwerken zu erforschen, mit Hinblick auf die Entstehung und Umsetzung von Innovationen für Probleme aus der modernen Arbeitswelt. Fokussiert wird dabei auf den Einsatz von Web 2.0-Technologien, die als Instrument hinsichtlich ihres Unterstützungspotentials bei der kooperativen Generierung von innovativen Lösungen untersucht werden. Zentrale Fragestellung dabei ist, ob der Einsatz von Web 2.0 in einem Netzwerk von KMU den Austausch innovativer Ideen durch Vernetzung der Mitarbeiter und ihres kreativen Potentials fördert. Praxispartner ist das WirtschaftsForum Neuwied e.V., ein im nördlichen Rheinland-Pfalz angesiedeltes Unternehmen, das aus ca. 115 Mitgliedern und 10.000 Mitarbeitern besteht und durch eine heterogene Struktur an Unternehmen unterschiedlichster Größen und Branchen sowie verschiedenster Leistungsangebote charakterisiert ist.
Im Rahmen dieser Abschlußarbeit wurde ein Plugin zur Visualisierung/Simulation von Public-Key-Infrastrukturen für die Kryptographie-Lernsoftware JCryp-Tool entwickelt und implementiert. Public-Key-Infrastrukturen stellen einen Bereich in der Kryptographie dar, mit dem viele Anwender von IT-Systemen in Berührung kommen.
Das Zeitfenster ab 1964 bis heute verzeichnet einen Geburtenrückgang. Diese Tatsache hat insofern negative Auswirkung, als dass es für die sozialen Sicherungen Gefahren birgt, nicht mehr finanziert werden zu können. Des Weiteren ist über einen langen Zeitraum mit einem Fachkräftemangel zu rechnen, sollte sich der Geburtenrückgang weiterhin fortsetzen.
In dieser Ausarbeitung wird der Zusammenhang zwischen dem Bildungsgrad der Frau und dem Anteil kindeloser Frauen und der Anzahl an Kindern untersucht. Sollte dabei ein Zusammenhang bestehen, so müssten vor allem Akademikerinnen den höchsten Anteil an Kinderlosigkeit und die niedrigste Kinderzahl je Frau aufweisen. Im Umkehrschluss müssten Frauen mit Hauptschulabschluss oder Frauen ohne Schulabschluss die niedrigsten Anteile an Frauen ohne Kinder und die höchsten Zahlen an Kindern je Frau vermelden.
Das Ziel dieser Bachelorarbeit ist es ein Schätzkonzept zu validieren, das im Rahmen eines Projektes auf der Universität Koblenz-Landau entwickelt wurde, um den Anteil kinderloser Frauen und die Anzahl an Kindern je Frau zu schätzen
Dieses Dokument schlägt ein Konzept für eine Personal Key Infrastruktur in iCity vor. Über ein Trust Center (TC) ausgestellte Zertiffkate gewährleisten einen sicheren Schlüsselaustausch mit nachweisbarer Authentisierung des Kommunikationspartners, Abhörsicherheit sowie Unverf älschtheit und Nachweisbarkeit der Nachrichten. Das gemeinsam vertrauensw ürdige TC muss während der Kommunikation nicht erreichbar sein. Es erhält lediglich öffentliche Informationen. Das Konzept stellt mehrere Sicherheitsstufen vor, die sichere Identiffkation und Anonymität unterschiedlich gewichten.
Data Mining im Fußball
(2014)
Data Mining ist die Anwendung verschiedener Verfahren, um nützliches Wissen automatisch aus einer großen Menge von Daten zu extrahieren. Im Fußball werden seit der Saison 2011/2012 umfangreiche Daten der Spiele der 1. und 2. Bundesliga aufgenommen und gespeichert. Hierbei werden bis zu 2000 Ereignisse pro Spiel aufgenommen.
Es stellt sich die Frage, ob Fußballvereine mithilfe von Data Mining nützliches Wissen aus diesen umfangreichen Daten extrahieren können.
In der vorliegenden Arbeit wird Data Mining auf die Daten der 1. Fußballbundesliga angewendet, um den Wert bzw. die Wichtigkeit einzelner Fußballspieler für ihren Verein zu quantifizieren. Hierzu wird der derzeitige Stand der Forschung sowie die zur Verfügung stehenden Daten beschrieben. Im Weiteren werden die Klassifikation, die Regressionsanalyse sowie das Clustering auf die vorhandenen Daten angewendet. Hierbei wird auf Qualitätsmerkmale von Spielern, wie die Nominierung eines Spielers für die Nationalmannschaft oder die Note, welche Spieler für ihre Leistungen in Spielen erhalten eingegangen. Außerdem werden die Spielweisen der zur Verfügung stehenden Spieler betrachtet und die Möglichkeit der Vorhersage einer Saison mithilfe von Data Mining überprüft. Der Wert einzelner Spieler wird mithilfe der Regressionsanalyse sowie einer Kombination aus Cluster- und Regressionsanalyse ermittelt.
Obwohl nicht in allen Anwendungen ausreichende Ergebnisse erzielt werden können zeigt sich, dass Data Mining sinnvolle Anwendungsmöglichkeiten im Fußball bietet. Der Wert einzelner Spieler kann mithilfe der zwei Ansätze gemessen werden und bietet eine einfache Visualisierung der Wichtigkeit eines Spielers für seinen Verein.
Im Zeitraum zwischen 1985 bis 1994 hatten ethnische Konflikte einen Anteil von über 50% der Gesamtzahl aller Konflikte. Oft entstehen Konflikte zwischen verschiedenen ethnischen Gruppen oder zwischen einer ethnischen Gruppe und dem Staat. Die Gründe hierbei sind sehr vielfältig und reichen von der sozialen Benachteiligung bis hin zur Bedrohung kollektiver Identität. Eine wesentliche Schlüsselrolle spielt dabei die politische Elite, die politische und ökonomischen Kriesen ausnutzt, um ethnische Gruppen zu mobilisieren.
Diese Diplomarbeit versucht die Ursachen solcher ethnischer Konflikte am Beispiel des ehemaligen Jugoslawiens zu untersuchen und fokusiert sich dabei besonders auf die Rolle der politische Elite. Hierfür wurde der Ansatz der agentenbasierten Simulation verfolgt. Das mit ArcGIS, EmIL und Repast realisierte agentenbasierte Modell erlaubt eine gründliche Untersuchung solcher Konflikte. Die Haupteigenschaft liegt dabei in der Fähigkeit der Agenten, ein normatives Verhalten entwickeln zu können, womit komplexte soziale Verhaltensweisen simuliert werden können.
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
Femto ist eine Programmierumgebung, die auf einem ATmega-basierten Einchip-Computer mit VGA-Ausgang und PS/2-Tastaturschnittstelle ausgeführt wird und aus einem einfachen Texteditor sowie einem Interpreter besteht. Dadurch wird es möglich, direkt auf dem Mikrocontroller kleine Programme zu entwickeln und auszuführen. Die interpretierte Sprache mit dem Namen Femtoscript wurde im Rahmen dieser Arbeit entwickelt und ähnelt Javascript. Der Interpreter ist in C geschrieben und kann mit geringem Aufwand auf andere Plattformen portiert werden.
Parallelmanipulatoren, welche den Stewartmechanismus nutzen, ermöglichen die präzise Ausführung von Aufgaben in einem begrenzten Arbeitsraum. Durch die Nutzung von sechs Freiheitsgraden wird eine hohe Flexibilität der Positionierung erreicht. Die robuste Konstruktion sorgt zudem für ein sehr gutes Verhältnis von Gewicht zu Nutzlast.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer flexiblen Softwarelösung zur Ansteuerung einer Stewartplattform. Dies umfasst ein Modell der Plattform, welches zu Testzwecken dient. Es werden zunächst die mathematischen Grundlagen der Inversen Kinematik erarbeitet aufbauend auf einem zuvor definierten Bewegungsmodell. Es folgt die Entwicklung einer generischen Architektur zur Übermittlung und Auswertung von Steuerkommandos vom PC. Die Implementierung geschieht in C und wird in verschiedene Module aufgeteilt, welche jeweils einen Aufgabenbereich der Positionskontrolle oder der Hardwarekommunikation abdecken. Es wird zudem eine graphische Nutzeroberfläche vorgestellt, über die man die Position der Plattform manuell verändern kann. Eine automatische Ansteuerung wird im folgenden Anwendungsbeispiel beschrieben, wo die Plattform mit frequentiellen Beschleunigungswerten einer Achterbahnsimulation beliefert wird.
Im Laufe der letzten Jahre hat sich der typische Komplex an kritischen Erfolgsfaktoren für Unternehmen verändert, infolgedessen der Faktor Wissen eine wachsende Bedeutung erlangt hat. Insofern kann man zum heutigen Zeitpunkt von Wissen als viertem Produktionsfaktor sprechen, welcher die Faktoren Arbeit, Kapital und Boden als wichtigste Faktoren eines Unternehmens ablöst (vgl. Keller & Yeaple 2013, S. 2; Kogut & Zander 1993, S. 631). Dies liegt darin begründet, dass aktive Maßnahmen zur Unterstützung von Wissenstransfer in Unternehmen höhere Profite und Marktanteile sowie bessere Überlebensfähigkeit gegenüber Wettbewerbern ohne derartige Maßnahmen nach sich ziehen (vgl. Argote 1999, S. 28; Szulanski 1996, S. 27; Osterloh & Frey 2000, S. 538). Der hauptsächliche Vorteil von wissensbasierten Entwicklungen liegt dabei in deren Nachhaltigkeit, da aufgrund der immateriellen Struktur (vgl. Inkpen & Dinur 1998, S. 456; Spender 1996a, S. 65 f.; Spender 1996b, S. 49; Nelson & Winter 1982, S. 76 ff.) eine Nachahmung durch Wettbewerber erschwert wird (vgl. Wernerfelt 1984, S. 173; Barney 1991, S. 102).
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
Die Erkennung von Bewegungen mit einem Smartphone ist durch die internen Sensoren, mit denen es ausgestattet ist, ohne externe Sensoren möglich. Zunächst werden vergangene Untersuchungen und deren Verfahrensweise betrachtet. Von diesen Untersuchungen wird die hier verwendete Umsetzung der Bewegungserkennung abgeleitet und beschrieben. Ein Großteil der Literatur verwendet ausschließlich den Beschleunigungssensor für die Bewegungserkennung. Diese Bachelorarbeit untersucht dazu den Nutzen weiterer Sensoren, wie z.B. das magnetische Feld, die lineare Beschleunigung oder das Gyroskop. Die Bewegungserkennung erfolgt durch maschinelles Lernen mit Klassifizierungsalgorithmen. Es werden Decision Tree, Naive Bayes und Support Vector Machines verwendet. Zunächst werden die benötigten Sensordaten mit Hilfe einer eigens entwickelten Applikation von Testpersonen gesammelt und gespeichert. Diese Daten werden als Trainingsdaten für die Klassifizierungsalgorithmen benötigt.
Das Ergebnis ist ein Modell, das die Struktur der gelernten Daten enthält. Validiert werden die Modelle mit Testdatensätzen, die sich von den Trainingsdatensätzen unterscheiden. Die Ergebnisse bestätigen vergangene Untersuchungen, dass die Daten des Beschleunigungssensors ausreichend sind, um Bewegungen sehr genau erkennen zu können. Orientierung, Gyroskop und die lineare Beschleunigung hingegen sind nur bedingt für die Bewegungserkennung einsetzbar. Außerdem scheint für eine geringe Anzahl an Testdaten der Decision Tree am besten geeignet zu sein, wenn Bewegungen von Benutzern erkannt werden sollen, von denen keine Trainingsdaten bei der Erstellung des Modells vorhanden sind.
Potential vermögender Kunden
(2011)
Diese Bachelorarbeit beschäftigt sich mit dem Potential vermögender Kunden im Private-Banking Sektor und den in diesem Bereich angebotenen Finanzdienstleistungen. Hierzu wird unter anderem ein Vergleich des internationalen Potentials mit dem Potential im deutschsprachigen Raum, mit Hilfe von Zeitreihen, durchgeführt.
Der Bezugszeitraum liegt zwischen den Jahren 2000 und 2009. In dieser Zeit kam es, gerade durch die Finanzkrise undrnderen Folgen, zu Kapitalumverteilungen. Die sich aus dieser Analyse ergebenden Veränderungen des Potentials werden daraufhin im Bezug auf die Umgestaltungsmöglichkeiten im Bereich der Finanzdienstleistungen in diesem Sektor angewandt. Hierbei steht das Erreichen eines hohen Servicegrades im Vordergrund, denn dies ist einer der Hauptgründe, warum eine Kunde bei einer Bank bleibt und diese nicht wechselt. Zudem werden neue Möglichkeiten im Banksektor erwähnt und auf die Auswirkungen unterschiedlicher Berater-Entlohnungsmodelle eingegangen.
Das Erstellen virtueller Netzwerke hat den Vorteil, dass Routingalgorithmen oder auch verteilte Software sehr einfach, übersichtlich und kostengünstig getestet werden können. Zu den Routingalgorithmen gehört auch das Optimized Link State Routing und der Babel Algorithmus für mobile Ad-Hoc Netze. Die folgende Ausarbeitung beschäftigt sich mit den beiden Algorithmen im Zusammenhang mit fehlerbehafteten Verbindungen in solchen Netzwerken. Normalerweise sind die virtuellen Verbindungen, welche in einem virtuellen Netzwerk erstellt werden, nahe an den optimalen Bedingungen. Oftmals sollen die Routingalgorithmen aber nicht unter optimalen Bedingungen getestet werden, um ein möglichst realistisches Verhalten zu simulieren.
Aus diesem Grund sollen sie mithilfe des Netzwerktools Traffic Control unter nicht optimalen Bedingungen getestet werden. Traffic Control stellt einige Werkzeuge zur Verfügung, um Verbindungen hinsichtlich ihrer Verzögerung oder des Paketverlustes zu manipulieren. In dieser Arbeit werden einige Szenarien erstellt, in denen dies getestet wird. Zusätzlich zu den Routingalgorithmen werden noch Staukontrollverfahren, die dazu dienen Datenstau in Netzwerkverbindungen zu verhindern, auf ihre Arbeitsweise untersucht. Mit Traffic Control ist es auch möglich eine gestaute Verbindung zu simulieren.
Im Rahmen der vorliegenden Arbeit wurde eine Umfrage bei Absolventen des Fachbereichs 4: Informatik der Universität Koblenz-Landau konzipiert, durchgeführt und ausgewertet. Zielsetzung war die Unterstützung der Task Force Bachelor Master, welche sich mit der Reakkreditierung der Studiengänge befasst hat. Zunächst wurden mithilfe von Desk Research die theoretischen Voraussetzungen zur Konzipierung der Umfrage geschaffen. Weiterhin wurden vergangene Befragungen ähnlicher Art recherchiert, die teilweise als Vorlage dienten. Der unter Berücksichtigung aktueller Veränderungen entstandene Umfrage-Prototyp wurde mithilfe eines Pre-Tests weiter verbessert. Die finale Version wurde schließlich in das OpenSource-Tool LimeSurvey implementiert, welches als technische Grundlage für die Durchführung der Befragung diente. Die Empfänger der Teilnahmeaufforderung an der Umfrage waren Mitglieder von Alumnivereinen sowie Absolventen aus den vorangegangen Jahren.rnAus der Umfrage konnten Erkenntnisse über die Zufriedenheit der Absolventen mit ihrem Studiengang gewonnen werden, aber auch über die Studiensituation im Allgemeinen. Darüber hinaus wurde die Meinung zu zwei neuen Master-Studiengängen, E-Government und Web Science, abgefragt.
Die Resonanz war aus vier Studiengängen stark genug, um aussagekräftige Ergebnisse liefern zu können, aus fünf anderen konnten nur die studiengangübergreifenden Aussagen ausgewertet werden. Insgesamt gab es eine hohe Zufriedenheit der Studierenden mit ihrem Studium. Es konnten aber auch einige Verbesserungsvorschläge und Kritikpunkte gesammelt werden. Diese bezogen sich verstärkt auf die Themen Internationalität, Gewichtung der Lehrinhalte, Wahlfreiheit/Spezialisierung sowie Praxisrelevanz.
Als Ergebnis der Ausarbeitung ließ sich eine Handlungsempfehlung aussprechen, die in Kombination mit den Detailergebnissen aus der Befragung zu einer Verbesserung der Qualität und des Bedarfs der Lehre im Fachbereich 4: Informatik führen soll.
Das Einsatzgebiet des im Rahmen von insgesamt drei Studienarbeiten eingeführten "Spontaneous Guest Access (SpoGA) & Extended Invitation Management System (E-IMS)" ist im Firmenumfeld angesiedelt. Gästen einer Firma kann durch Nutzung des Systems ohne großen Aufwand ein Zugang zu einem gesicherten, drahtlosen Firmennetzwerk ermöglicht werden, über welches auch der Zugriff aufs Internet erfolgen kann. Das System soll auch die Planung und Durchführung von Veranstaltungen wie insbesondere Konferenzen erleichtern. SpoGA soll es einem Gastgeber ermöglichen, die Netzwerkgeräte befugter Gäste für einen vorgegebenen Zeitraum automatisiert freizuschalten. Somit kann für bestimmte Geräte komfortabel und ohne großen Aufwand ein temporärer Zugang geschaffen werden, ohne die Sicherheit des Netzes zu beeinflussen. E-IMS soll den Verwaltungsaufwand bei der Organisation und Durchführung von Veranstaltungen so weit wie möglich reduzieren. Durch die Anbindung an SpoGA wird außerdem eine automatisierte Freischaltung der Netzwerkzugänge der Konferenzteilnehmer möglich. Auch Aspekte der Teilnehmer- und Ressourcenverwaltung werden berücksichtigt: automatisierter Versand von Einladungen, selbstständige Buchung der von den Teilnehmern jeweils benötigten Geräte wie Beamer und Projektoren und Übersicht über die angefallenen bzw. laufenden Kosten der Veranstaltung. Gegenstand dieser Arbeit ist die Umsetzung des zweiten Teilbereichs des E-IMS, welcher die Realisierung der Veranstaltungsverwaltung sowie der Funktion zum Abrechnen in Anspruch genommener Ressourcen umfasst. Um Nutzern einen mobilen Zugriff auf die Veranstaltungsdaten zu ermöglichen, wurde die entsprechende Anwendung prototypisch für Mobiltelefone realisiert.
Der Zweck dieser Bachelorarbeit ist es Lisa - dem Roboter, der von der Arbeitsgruppe Aktives an der Universität Koblenz-Landau, Campus Koblenz, für die Teilnahme an der @home Liga des Robocups entwickelt wurde - das Zeichnen beizubringen. Dies erfordert die Erweiterung des Robbie Software Frameworks und den Einsatz der Hardware-Komponenten des Roboters. Unter Beachtung eines möglichen Einsatzes für die Open Challenge des RoboCups @home, sind die Ziele ein Blatt Papier mit Lisas optischem Sensor, einer Microsoft Kinect, zu erkennen und auf diesem zu Zeichnen unter Benutzung des Neuronics Katana Roboterarms. Zusätzlich muss eine Stifthalterung für den Gripper des Arms konstruiert werden.
Beschrieben in dieser Arbeit sind die notwendigen Schritte, um eine Zeichenvorlage in Bewegungen des Arms umzuwandeln, welche wiederum dazu führen, dass ein Bild gezeichnet wird durch den am Arm montierten Stift auf dem Blatt Papier, welches vom optischen Sensor durch Bilderkennung entdeckt wurde. Ermöglicht wurde es ein Object, welches aus einer beliebigen Anzahl gerader Linien besteht und aus einer SVG-Datei gelesen wird, auf ein weißes Blatt Papier zu zeichnen, das auf einer dunkleren Oberfläche erkannt wird, umgeben von anderen Gegenständen und Texturen.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
In dieser Arbeit wird ein erster Prototyp einer mobilen Lernplattform mit Mixed-Reality-Funktionalität (MR) entwickelt. Dieses System soll in den Arbeitsprozess integriertes, selbstbestimmtes Lernen, in Interaktion mit dem Arbeitsgegenstand ermöglichen. Dies entspricht einem situierten, gemäßigt konstruktivistischen Kompetenzbegriff zur beruflichen Weiterbildung, wie ihn Martens-Parree beschreibt. Anhand eines Probandentests in einer Beispieldomäne, der Ausbildung von Piloten auf Segelflugzeugen, wird untersucht, ob Kompetenzvermittlung im Sinne von Handlungskompetenz mit Hilfe des mobilen MR-Lernmediums unterstützt wird und, ob das System bei konkreten Arbeitsaufgaben arbeitserleichternd wirkt. Die Annahmen der erwachsenenpädagogischen Ausgangsthesen konnten grundsätzlich gestützt werden, auch wenn keine direkte Handlungskompetenz, sondern lediglich eine Wissensvermittlung nachgewiesen werden konnte.
Diese Bachelorarbeit beschreibt den Entwurf und die Implementierung eines Übersetzungsprogramms für die Android Plattform. Die Besonderheit der Anwendung ist die selbstständige Texterkennung mit Hilfe des Kamerabildes. Diese Methode soll den Übersetzungsvorgang in bestimmten Situationen erleichtern und beschleunigen. Nach einer Einführung in die Texterkennung, die ihr zugrundeliegenden Technologien und das Betriebssystem Android, werden sinnvolle Anwendungsmöglichkeiten vorgestellt. Anschließend wird ein Entwurf der Anwendung erstellt und die Implementierung erläutert. Zum Schluss wird eine Evaluation durchgeführt, dessen Absicht das Aufzeigen von Stärken und Schwächen der Anwendung ist.
Diese Bachelor-Thesis beschäftigt sich mit der Entwicklung eines Programms, welches den Zahnarzt durch die AR bei seiner Behandlung am Patienten unterstützen soll. Um eine angemessene theoretische Grundlage zu schaffen, wird zunächst der aktuelle Stand der Technik erläutert, der für dieses Projekt relevant ist. Daraufhin werden mögliche zukünftige Technologien vorgestellt, welche die hypothetische Basis dieser Arbeit darstellen. In dem darauffolgenden Unterkapitel wird die Auswahl der Systeme erläutert, die für dieses Projekt verwendet wurden. Der Hauptteil beschäftigt sich zunächst mit dem Vorgehen in der Vorbereitungs- und Planungsphase, um daraufhin den Programmablauf der Applikation sukzessiv vorzustellen. Dabei wird auch auf die Probleme eingegangen, die während des Programmierens entstanden sind. In dem reflektierenden Auswertungsteil werden Verbesserungsvorschlägen und Zusatzfunktionen für das geschriebene Programm präsentiert.
Der Forschungsbereich E-Government gewinnt in Deutschland und Europa immer mehr an Bedeutung. Die Anzahl der Akteure wächst ständig, sodass es für Außenstehende und Interessierte schwierig ist, den Überblick zu behalten. Es ist diese enorme Informationsflut, die eine Forschungslandkarte für den E-Government-Bereich für sinnvoll erscheinen lässt. Auf dieser Internetplattform soll ein Überblick über alle relevanten Akteure, die im Bereich E-Government Forschung betreiben, gegeben werden. Um einen vollständigen Überblick geben zu können, müssen auch Informationen angezeigt werden, die in der Vergangenheit gültig waren. Voraussetzung hierfür ist die Historisierung relevanter Inhalte. Hierbei wird bei Änderung eines Objekts oder Attributs das Objekt oder Attribut nicht überschrieben, sondern eine neue Version in der Datenbank angelegt. Auf diese Weise sind die Benutzer in der Lage, die Forschungslandkarte zeitbezogen zu navigieren. Erfahrungen haben gezeigt, dass die Historisierung von Webinhalten bereits bei der konzeptionellen Phase und beim Design einer Online-Plattform eingeplant und modelliert werden soll, um so den temporalen Anforderungen zu genügen. Diese Bachelorarbeit beschäftigt sich mit der Herausforderung der Historisierung der Inhalte der Forschungslandkarte und legt ein Konzept vor, das die temporale Datenhaltung bei der Konzeptionierung der Plattform berücksichtigt.
Pose-Tracking
(2009)
Die bildbasierte automatische Bestimmung der Pose, d. h. der Position und Blickrichtung, einer Kamera in derWelt, ist eine relevante, aber immer noch unzureichend gelöste Aufgabe im Rechnersehen. In dem diesem Bericht zugrunde liegenden Projekt werden höhere markante Merkmale in den Bildern sicherer lokalisiert, sowie deren semantische Signifikanz vom Rechner bestimmt. Eine Posebestimmung wird durch eine Registrierung der elementaren Bestandteile dieser markanten Merkmale im Bild mit Merkmalen im 3-D-Modell erreicht. Dazu werden neue Algorithmen zur Detektion, Lokalisation und Registrierung der markanten Merkmale entwickelt bzw. vorhandene Algorithmen weiter verbessert. Modelle, wie sie aus der Rekonstruktion von Mehrfachansichten entstehen, werden durch weitere Semantik angereichert. Als Anwendungsszenario wird die Posebestimmung auf dem Campusgelände unter Verwendung von Bildern und einem semantischen CG-Modell des Campus gewählt. Die allgemeinen Verfahren werden an diesem Beispiel getestet und ihre Tragfähigkeit wird in Experimenten belegt. Im modularen System entstehen problemunabhängige Einzelbausteine zur Detektion markanter Merkmale und zur 3-D-Rekonstruktion und Posebestimmung aus Merkmalen, Punkten und Linien. Damit wird belegt, dass eine robuste Detektion markanter Merkmale möglich ist und zu einer effektiven Rekonstruktion und Posebestimmung auch in teilweise wenig strukturierten Außengebieten genutzt werden kann.
Diese Masterarbeit hat das Ziel, die Frage zu klären, wie man Stakeholder an einem Projekt beteiligen kann. Es werden Methoden diskutiert, wie man die relevanten Stakeholder aus der Fülle der Anspruchsgruppen auswählt und wie man diese Stakeholder in den Beteiligungsprozess einbindet. Der Beteiligungsprozess sieht neben klassischen Beteiligungsmethoden wie Workshops vor allem moderne Web 2.0 Methoden vor.
Die vorliegende Arbeit behandelt die Konzeption einer Smartphone-Applikation für Notfälle. Sie beschreibt die grundlegende Problemstellung und bietet einen konzeptionellen Lösungsansatz.
Den Kerninhalt der Arbeit bildet eine Anforderungsanalyse an eine neu zu konzipierende Notfall-Applikation. Weiterhin werden neben den funktionalen Anforderungen auch nicht-funktionale Anforderungen wie die Benutzerfreundlichkeit betrachtet, um daraus Erkenntnisse für das im Anschluss folgende Soll-Konzept der Applikation abzuleiten. Aufbauend auf einem erstellten Anforderungskatalog wird eine Marktanalyse bestehender Systeme für den Einsatz in Notfällen durchgeführt und auf Stärken und Schwächen hin untersucht. Daneben werden bereits existierende oder im Aufbau befindliche mHealth-Applikationen der Universität Koblenz betrachtet, deren Teilfunktionaltäten aufgrund des vorhandenen Quellcodes mit der späteren Applikation verknüpft werden können. Im Soll-Konzept werden die Erkenntnisse zusammengefasst und mögliche Architekturszenarien für die künftige Notfall-Applikation aufgezeigt. Bei der Bearbeitung des Themas wird deutlich, dass eine Konzeption alleine nicht weit genug greift, die Anforderungen an die zu erstellende Arbeit werden somit erweitert um die Anbindung und Integration der Rettungsleitstellen in das Konzept der Notfall-App.
Am Ende der Ausarbeitungen wird der Leser einen umfassenden Überblick über die Bereitstellung von Notfalldaten an die Leitstellen mittels unterschiedlicher Übertragungskanäle erhalten haben. Weiterhin werden Voraussetzungen für die Anforderungen an das zu konzipierenden System vorgestellt und mögliche Architektur-Szenarien des Notfall-Applikations-Systems aufgezeigt. Der generische und modulare Ansatz garantieren, dass das System offen für zukünftige Entwicklungen und die Anbindung von Teilfunktionalitäten weiterer Applikationen ist.
Diese Arbeit befasst sich mit der Migration von Software-Systemen hin zur Verwendung des im Unicode-Standard definierten Zeichensatzes. Die Arbeit wird als Fallstudie am Dokumenten-Management-System PROXESS durchgeführt. Es wird ein Umstellungsprozess entworfen, der die Arbeitsschritte der Migration für das gesamte System und eine beliebige Zerlegung des Systems in einzelne Module definiert. Die Arbeitsschritte für die einzelnen Module können zu großen Teilen zeitlich unabhängig voneinander durchgeführt werden. Für die Umstellung der Implementierung wird ein Ansatz zur automatischen Erkennung von Verwendungsmustern eingesetzt. Im abstrakten Syntaxbaum werden Sequenzen von Anweisungen gesucht, die einem bestimmten Verwendungsmuster zugeordnet werden. Ein Verwendungsmuster definiert eine weitere Sequenz von Anweisungen, die eine Musterlösung für die Unicode-basierte Handhabung von Strings darstellt. Durch das Anwenden einer Transformationsregel wird die ursprüngliche Anweisungssequenz in die zum Verwendungsmuster gehörende Anweisungssequenz überführt. Dieser Mechanismus ist ein Ausgangspunkt für die Entwicklung von Tools, die Transformationen von Anweisungssequenzen automatisch durchführen.
Diese Arbeit untersucht an einem realistischen Szenario den Ansatz der bildbasierten Integration von Software hinsichtlich seiner Praktizierbarkeit. Als praktische Aufgabe wird die Entwicklung eines Expertensystems für Online- Poker-Plattformen durchgeführt. Die wichtigsten, zu untersuchenden Aspekte sind der Aufwand der Implementierung, die Performance und die Qualität dieses Ansatzes.
In Enhanced Reality Umgebungen nimmt der Betrachter die Umgebung und zusätzliche, in eine halbdurchsichtige Datenbrille eingeblendete Informationen wahr. Das Kalibrierungsproblem der Datenbrille ist die Aufgabe, die eingeblendete Information mit dem korrekten realen Hintergrund zur Deckung zu bringen. Heutige Datenbrillen sind vergleichsweise klobig und schwer, deshalb kommt es häufig zu leichtem Verrutschen der Brille. Wird dieses Verrutschen nicht in die Position der Einblendung in der Brille einbezogen, so passt die Einblendung nicht mehr zum realen Hintergrund. Dies wird in Abbildung 1.1 exemplarisch dargestellt. Nach initialer Kalibrierung der teildurchsichtigen Datenbrille auf das Auge des Betrachters soll deshalb bei relativer Lageveränderung der Datenbrille zum Auge (durch leichtes Verrutschen) eine Re-Kalibrierung in Echtzeit automatisch erfolgen. Eine automatische Re-Kalibrierung bei Verrutschen wird von uns erstmalig erforscht.
Ziel des Verbundprojektes 3D-RETISEG ist es, ein optimiertes echtzeitfähiges Soft- und Hardwarepaket zur 2D/3D-Segmentierung und Klassifizierung basierend auf hierarchischen Inselstrukturen, und zur schnellen Volumenvisualisierung sehr großer Volumendaten aus komprimierten Datensätzen zu entwickeln. Die Entwicklungen sollen in konkreten Anwendungsfällen der Forschung und der Wirtschaft als marktreifes Modul in das Softwarepaket VGStudioMax integriert werden. In der Medizin, speziell bei der Segmentierung von Volumendatensätzen, die durch unterschiedliche Tomographietechniken (z.B. CT und MRI) erzeugt werden, liefern zweidimensionale Verfahren häufig eine unzureichende Qualität aufgrund der anisotropen Berücksichtigung der Rauminformationen. Bisher entwickelte dreidimensionale Verfahren sind, neben der der schlechten Verfügbarkeit ihrer Implementierungen, häufig nur für bestimmte Fragestellungen dediziert und daher für andere Anwendungsfälle schlecht adaptierbar. Weiterhin benötigen Verfahren, die gute Ergebnisse liefern, meist eine hohe Laufzeit. Dies ist aber speziell in medizinischen Anwendungen von großem Nachteil, da hier die Qualität der Ergebnisse in letzter Instanz von einem Experten beurteilt wird. Damit das Ergebnis schnell zu benutzerdefinierten Optimierungen durch Veränderung der Verfahrensparameter zur Verfügung steht, sollte ein Verfahren nur sehr kurze Rechenzeiten benötigen. Weist ein Verfahren eine geringe Laufzeit auf, so kann es außerdem intra-operativ eingesetzt werden. Der hier im Projekt verwendete 3D-Color-Structure-Code verspricht, ein besseres und generisches Verfahren zu ermöglichen.
Ziel dieser Ausarbeitung ist es, das Wippe-Experiment gemäß dem Aufbau innerhalb der AG Echtzeitsysteme unter Leitung von Professor Dr. Dieter Zöbel mithilfe eines LEGO Mindstorms NXT Education-Bausatzes funktionsfähig nachzubauen und das Vorgehen zu dokumentieren. Der dabei entstehende Programmcode soll didaktisch aufbereitet und eine Bauanleitung zur Verfügung gestellt werden. Dies soll gewährleisten, dass Schülerinnen und Schüler auch ohne direkten Zugang zu einer Hochschule oder ähnlichem Institut den Versuchsaufbau Wippe möglichst unkompliziert im Klassenraum erleben können.
Diese Bachelorarbeit beschreibt die Konzeption, Implementierung und Evaluierung eines kollaborativen Multiplayer-Games für Kleinkinder für mobile Geräte.
Das Ziel dieser Bachelorarbeit war es, herauszufinden in wie weit sich mobile Geräte wie etwa Tablet-PCs und Smartphones für das Zusammenspiel von Kindern eignen. In diesem Rahmen wurden die für die Entwicklung eines solchen Spiels relevanten Aspekte recherchiert und darauf aufbauend ein Spiel entwickelt, welches anschließend von Kleinkindern getestet wurde.
ERP market analysis
(2013)
Der aktuelle ERP Markt wird dominiert von den fünf größten Anbietern SAP, Oracle, Microsoft, Infor und Sage. Da der Markt und die angebotenen Lösungen vielfältig sind, bedarf es einer fundierten Analyse der Systeme. Die Arbeit beleuchtet dabei anhand ausgesuchter Literatur und Kennzahlen der verschiedenen Unternehmen die theoretische Seite der angebotenen Lösungen der fünf großen ERP Anbieter. Daneben wird die Nutzung der Systeme in der Praxis anhand der Befragung von sechs Anwendern analysiert und die Systeme miteinander verglichen.
Ziel der Arbeit ist es, dass die Forschungsfragen beantwortet werden und dass es bezogen auf die Systeme dem Leser der Arbeit ersichtlich wird, welches ERP System für welche Unternehmensbranche und Unternehmensgröße am besten geeignet ist.
Des Weiteren gibt die Arbeit Aufschluss darüber, welche Trends für ERP Systeme für die Zukunft zu erwarten sind und welche Herausforderungen sich dadurch für die Unternehmen stellen.
Diese Arbeit setzt sich kritisch mit dem Google Kalender auseinander. Zu diesem Zweck werden die angebotenen Funktionen des Kernprodukts auf Aspekte des Datenschutzes untersucht. Es wird zum einen ermittelt, in welchem Umfang das Produkt die Privatsphäre der Nutzer verletzen kann, zum anderen werden die dadurch entstehenden Risiken aufgezeigt. Des Weiteren werden die Funktionen im Hinblick auf ihren Nutzen, sowohl für den Dienstanbieter Google, als auch für den Nutzer betrachtet. Eine eingehende Analyse zeigt die kritischen Stellen auf, an denen zwischen Datenschutz und Funktionalität entschieden werden muss. Die Lösungsmöglichkeiten, um die aufgezeigten Risiken mit Mechanismen der IT-Sicherheit zu minimieren, werden im Folgenden vorgestellt, diskutiert und in Bezug auf ihre Umsetzbarkeit untersucht. Die einzelnen Lösungsansätze werden daraufhin in einem Sicherheitskonzept zusammengefasst und weitere Anforderungen erläutert. Abschließend soll ein Addon für Firefox erstellt werden, welches das beschriebene Lösungskonzept umsetzt, um so die bestehenden Schwachstellen bestmöglich zu beheben. Letztlich wird der Funktionsumfang des Addons mit technischer Umsetzung im Einzelnen erläutert.
Viele Suchmaschinen betreiben Formen der Internetregulierung. Diese ist für den Endbenutzer teils schwer ersichtlich und leicht umgehbar. Weiter ist es oft schwierig, Hintergrundinformationen zu Regulierungen zu erfahren. Um diese Schwachstellen zu beheben, wird die Entwicklung der prototypischen Meta-Suchmaschine "Polsearchine" beschrieben. Ihre Regulierung erfolgt mittels der von Kasten und Scherp für Internetregulierung entwickelten Ontologie InFO. Dabei wird die konkrete Erweiterung SEFCO zur Anwendung auf Suchmaschinenebene verwendet. Zur Beschaffung der Suchergebnisse wird eine externe Suchmaschinen-API genutzt. Um nicht von einer bestimmten API abhängig zu sein, kann die API leicht ausgetauscht werden.
In dieser Arbeit wurde die Realisierung einer mobilen Sicherheitslösung für Überwachungszwecke vorgestellt, welche unter Zuhilfenahme des staatlich geförderten Forschungsprojekts CamInSens entwickelt wurde. CamInSens soll erreichen, in überwachten Gefahrenbereichen die erhaltenen Video- und Sensorendaten so zu analysieren, dass Bedrohungen möglichst frühzeitig erkannt und behandelt werden können. Das Ziel dieser Arbeit war, auf Basis von verarbeiteten Daten aus CamInSens eine Interaktion und Visualisierung zu entwickeln, die bei einem späteren Praxiseinsatz mobilem Sicherheitspersonal dabei hilft, in Bedrohungssituationen fundierte Entscheidungen treffen zu können. Zu diesem Zweck wurde nicht nur eine Software implementiert, sondern auch eine Marktsichtung hinsichtlich geeigneter Geräte und einsetzbarer Softwarebibliotheken durchgeführt.
In dieser Arbeit wird ein Mehrbenutzer-Annotationssystem namens myAnnotations vorgestellt, das mit Hilfe von sogenannten "Shared In-situ Problem Solving" Annotationen auf beliebigen Webseiten kollaborative Lern- und Arbeitsszenarien unterstützt. Hierbei wird insbesondere auf die Einsatzmöglichkeiten von "Shared In-situ Problem Solving" Annotationen beim kollaborativen Bearbeiten eines Textes und bei kollaborativen Lernerfolgskontrollen eingegangen.
In dieser Arbeit wird ein Datenmodell für Shared Annotations vorgestellt. Basierend auf einem bereits existierenden Datenmodell für Annotationen, wird dieses erweitert um die Möglichkeit der Modellierung von Shared Annotations. Daraufhin werden Funktionen von Shared Annotations erläutert, die über das neue Annotationsmodell möglich sind.
Die Bedeutung von Innovation für die Sicherung der Unternehmensexistenz nimmt zu. Gerade im Bereich der Informations- und Kommunikationssysteme zwingen veränderte Rahmenbedingungen, verkürzte Produktlebenszyklen und verstärkter Wettbewerb viele Unternehmen zur Anpassung ihrer Innovationsgeschwindigkeit. Langfristiger Erfolg wird sich nur für die Unternehmen einstellen, denen es gelingt, durch technologische Innovationen ihre Wettbewerbsposition zu festigen oder auszubauen. Dies erfordert einen gesonderten Umgang mit technologischen Innovationen und verlangt nach einem Technologie- und Innovationsmanagement. Dabei ist nicht jede Innovation das Produkt einer einmaligen, möglicherweise gar spontanen Idee. Viele Innovationen entstehen aus der Integration oder Kombination bereits bewährter Technologien. Dies ist besonders interessant, wenn die originären Technologien Branchen entstammen, die nur noch marginale Wachstumsraten aufweisen. Aufbauend auf den Besonderheiten des Fallbeispiels Decision on Demand werden in diesem Artikel existierende Mängel etablierter Vorschläge für ein strategisches Technologie- und Innovationsmanagement identifiziert und die Rolle von modularer Technologieintegration als Alternative diskutiert.
Die folgende Arbeit soll einen Überblick über bestehende Lösungen zur Interaktion in Erweiterten Realitäten (Augmented Reality) schaffen. Hierzu werden anhand dreier grundlegender Betrachtungsweisen unterschiedliche Interaktionskonzepte und -umsetzungen sowohl von der technischen, als auch von der konzeptuellen Seite her, vorgestellt. Neben Fragen der Visualisierung werden unterschiedliche Typen von Benutzungsschnittstellen vorstellt. Den größten Teil nehmen die drei typischen Interaktionsaufgaben Selektion- und Manipulation, Navigation und Systemkontrolle und die damit verbundenen Interaktionstechniken ein. Die Inhalte des Arbeitsberichts beschränken sich auf den Einsatz von Interaktionelementen in Augmented Reality Umgebungen. Dies geschieht in Abgrenzung zu Forschungsarbeiten auf dem Gebiet zu Interaktionstechniken in Virtual Reality Umgebungen (vollimmersiv oder auch desktoporientiert). Zwar standen und stehen viele Interaktionstechniken aus dem Bereich VR in der AR Pate, doch haben sich gerade im Bereich der AR neue Techniken und Konzepte entwickelt. Folglich sollen VR Techniken nur dann betrachtet werden, wenn Sie in AR Anwendungen angewendet wurden bzw. wenn ihre Anwendung sinnvoll erscheint.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
Das Ziel der Bachelor-Arbeit ist es, einen existierenden sechsbeinigen Kleinroboter zu programmieren, der dann in der Lage sein soll, seine Umgebung autonom zu explorieren und eine Karte selbiger zu erstellen. Zur Umgebungswahrnehmung soll ein Laserscanner integriert werden. Die Erstellung der Karte sowie die Selbstlokalisation des Roboters erfolgt durch Anbindung des Sensors an ein geeignetes SLAM (Simultaneous Localization and Mapping) Verfahren. Die Karte soll die Grundlage für die Pfadplanung und Hindernisvermeidung des Roboters bilden, die ebenfalls im Rahmen dieser Arbeit entwickelt werden sollen. Dazu werden sowohl GMapping als auch Hector Mapping verwendet und getestet.
In der Arbeit wird zudem ein xplorationsalgorithmus beschrieben, mit welchem der Roboter seine Umgebung erkunden kann. Die Umsetzung auf dem Roboter erfolgt innerhalb des ROS (Robot Operating System) Frameworks auf einem "Raspberry Pi" Miniatur-PC.
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.
Ziel dieser Arbeit ist es, eine Anwendung für ein Augmented Reality Fernrohr zu entwickeln, die verschiedene Interaktions- und Explorationsmöglichkeiten umsetzt. Darüber hinaus sollen Erkenntnisse über den Einfluss auf die Vermittlung von Wissen gewonnen werden. Dafür soll innerhalb von sechs Monaten neben der Einarbeitung in die verschiedenen Themengebiete, dem Entwurf eines Konzepts und der Implementierung der Anwendung auch eine gründliche Evaluation durchgeführt werden. Da der Standort des Fernrohrs im Rahmen der Bundesgartenschau 2011 [BUG] in Koblenz am Rheinufer in der Nähe der Talstation der Seilbahn ist, bietet es sich an die Festung Ehrenbreitstein in den Fokus zu setzen. Dabei soll vor allem die Festungsarchitektur im Mittelpunkt stehen. Die Anwendung soll dem Benutzer einen Überblick über die Festungsanlagen geben und nebenbei auch einige geschichtliche Fakten vermitteln.
Um die verschiedenen Anforderungen und die damit verbundenen Aufgaben zu erfüllen und strukturiert zu erarbeiten, wurde vor Beginn der Arbeit ein Projektplan erstellt, der die 6 Monate in fünf verschiedenen Phasen unterteilt, die jeweils mit Meilensteinen enden. Die Phase soll die Einarbeitung in die Grundlagen, die Entwicklung des Konzepts und die softwaretechnische Planung umfassen. Die nächste Phase beschäftigt sich mit der Präevaluation, die genaueren Aufschluss über die Qualität des entwickelten Konzepts geben soll. Im Anschluss an die Auswertung der Präevaluation kommt die erste Implementierungsphase, die mit einem Prototypen abschließen soll. Im zweiten Implementierungsschritt sollen dann die grafischen Inhalte erstellt und die prototypische Anwendung mit Inhalten gefüllt werden.
Zum Abschluss des Projekts wird eine Evaluation durchgeführt, die Erkenntnisse über den Einfluss von Augmented Reality auf die Vermittlung von Wissen liefern soll.