Filtern
Erscheinungsjahr
Dokumenttyp
- Diplomarbeit (23)
- Ausgabe (Heft) zu einer Zeitschrift (22)
- Bachelorarbeit (21)
- Studienarbeit (12)
- Masterarbeit (8)
- Dissertation (7)
- Buch (Monographie) (1)
Sprache
- Deutsch (94) (entfernen)
Volltext vorhanden
- ja (94) (entfernen)
Schlagworte
- Datenschutz (3)
- Evaluation (3)
- Instant Messaging (3)
- Computersimulation (2)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- Datenaustausch (2)
- Datensicherheit (2)
- E-IMS (2)
- E-Partizipation (2)
Institut
- Institut für Wirtschafts- und Verwaltungsinformatik (94) (entfernen)
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Auf eine bestehende Erhebung der Gesellschaft für Qualität in der Außerklinischen Geburtshilfe QUAG e.V. wurden moderne statistische Verfahren, insbesondere Faktorenanalyse und Mann-Whitney-U-Test angewendet. Es wurden hierzu die von den Hebammen ausgefüllten Perinatalbögen von 17269 Erstgebärenden aus dem Zeitraum 1999 bis 2004 ausgewertet. Der Mann-Whitney-U-Test wurde für die metrischen Variablen "Alter bei Geburt" und Hebammen-Erstkontakt angewendet. Unter anderem konnte gezeigt werden, dass Frauen mit besonderen sozialen Belastungen erst spät den Kontakt zur Hebamme suchen. Die Faktorenanalyse ergab sehr gut bekannte, aber auch neue Zusammenhänge, was auf die Stärke dieses Verfahrens schließen lässt. Eine kurze geburtshilfliche und/oder medizinische Erklärung wurde, sofern möglich, erstellt und recherchiert. Es ist jedoch weitere Erforschung und medizinische Beurteilung der Einzelergebnisse notwendig.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Business continuity planning
(2008)
Unternehmenskrisen lassen die Weltwirtschaft aufhorchen - gerade in jüngster Zeit häufen sich die Nachrichten über Notfälle und folgenschwere Fehlentscheidungen in Organisationen aller Art. Vieles bekommt die Außenwelt aber gar nicht erst mit, wenn die Ausweitung von Störungen noch in letzter Sekunde verhindert werden kann. Und wenn das Ausmaß zu groß wird? Dann droht oft das wirtschaftliche Aus. Business Continuity Planning ist der Vorsorgeprozess, der eine Institution auf den Ausnahmefall vorbereitet und garantiert, dass deren Existenz zu jeder Zeit gesichert ist und alle geschäftskritischen Prozesse auch während einer Krise aufrecht erhalten werden können. Diese Diplomarbeit erleichtert den Einstieg in das Thema Business Continuity Planning und in die erfolgreiche Umsetzung von Notfallmaßnahmen. Aus dem Blickwinkel der IT werden wertvolle Definitionen und Abgrenzungen gegeben und die Problemstellungen und Lösungswege einer individuellen Notfallvorsorge aufgegriffen. Fokussiert wird ein umfassender Überblick über die zentralen Teilbereiche des Planungsprozesses (und ihrer Erfolgskriterien) und ein praktischer Einblick in das Krisenmanagement.
Politiker wünschen die Nähe zu den Bürgern und damit die Nähe der Bürger zu ihnen. Diese zunächst wie ein Gemeinplatz anmutende These wird bestätigt durch die im Jahre 2010 erstellte Deutsche Parlamentarier Studie (DEUPAS). Die Studie macht deutlich, dass mit der Bürgernähe der Wunsch nach verstärkter Einbindung der Bürger in politische Entscheidungsprozesse einhergeht. Wie auch in anderen Bereichen sozialer Interaktionen zeigt sich das Internet in diesem Zusammenhang als mögliche Schnittstelle zwischen Bürgern und Entscheidern. So stellt auch die Politik unter dem Begriff E-Partizipation digitale Beteiligungsmöglichkeiten bereit, in der Absicht, Reaktionen und Kommentare der Bürger zu besonderen Angelegenheiten oder Themen zu sammeln. Auch wenn diese Angebote bisweilen erfolgreiche Konzepte beinhalten, werden die meisten nur von einer geringen Anzahl potenzieller Adressaten genutzt. Gleichzeitig steigt abseits dieser strukturierten und problemzentrierten Portale die Begeisterung der Gesellschaft für die Nutzung sozialer Netzwerke, die somit Eingang in den Alltag gefunden haben. Hier ist eine hohe Aktivität auf allen mehr oder minder relevanten Gebieten zu beobachten, unter anderem auch in der Diskussion politischer Themen. Insofern sind soziale Netzwerke für Politiker wichtig und attraktiv, und zwar auf allen politischen Ebenen, wo die sozialen Netzwerke inzwischen in die alltägliche Arbeit integriert sind.
Problematisch ist jedoch der kontinuierliche Anstieg digitaler "Informationsschnipsel" (englisch: information overload). Eine manuelle Filterung relevanter aus der Vielzahl irrelevanter Beiträge erscheint nahezu unmöglich. Folglich werden neue Techniken und Konzepte (Analyse-Software) zur Sammlung und Analyse der Informationsflut präsentiert. Sie versprechen einen leichten und schnellen Überblick, um die relevanten Informationen zu extrahieren. Insofern ist es gerade für die Politik von hoher Dringlichkeit, nach Nutzbarkeit und Nützlichkeit solcher Instrumente zu fragen.
Die vorliegende Arbeit untersucht die Relevanz von Analysesoftware-Ergebnissen für die Verwendung im politischen Alltag. Der Schwerpunkt liegt auf den sozialen Netzwerken Facebook und Twitter als Datenlieferanten. Die Bewertung erfolgt in Kooperation mit und durch politische Entscheider aus dem Deutschen Bundestag, dem Landtag von Nordrhein-Westfalen, der Staatskanzlei des Saarlandes sowie der Städte Köln (Abteilung E-Government) und Kempten (Pressestelle der Stadt Kempten, Allgäu, im Büro des Oberbürgermeisters).
In der Hauptuntersuchung wird für jeden Teilnehmer ein individueller Analysereport erstellt, der mit einem Methodenmix aus qualitativen Verfahren ausgewertet wird. Die Analysedaten werden mit der WeGov-Toolbox, eine Entwicklung des EU-Projektes WeGov und den darin enthaltenen Analysekomponenten erzeugt. Der Fokus liegt dabei auf der Auswertung des Wahlkreises, des lokalen Bereiches sozialer Netzwerke. Im Rahmen dieser Arbeit wird nicht nur der Relevanz von Analysedaten nachgegangen, sondern es wird auch untersucht, ob Bürgernähe oder sogar Bürgerbeteiligung mit den aus der Analysesoftware gewonnenen Ergebnissen und den daraus resultierenden Rückschlüssen und möglicherweise Handlungen positiv vorangetrieben werden kann.
Die Antworten der Teilnehmer führen zu wesentlichen Schlussfolgerungen:
1) Keiner der Teilnehmer geht davon aus, dass Bürgerbeteiligung über diesen Weg gelingt. Anders fällt die Bewertung in Bezug auf eine Realisierung von Bürgernähe aus: Die Teilnehmer bestätigen vereinzelte Ergebnisse, die besagen, dass Bürgernähe über diesen Ansatz, d.h. über die daraus gewonnenen Erkenntnisse unterstützt werden kann. Damit erhalten Politiker Informationen darüber, was die Bürger denken und sagen.
2) Potenzielle Nutzer werden in der Regel solche sein, die zwar Erfahrung mit sozialen Netzwerken besitzen, jedoch keine "Poweranwender" sind. Daher bietet sich der Einsatz der Tools eher auf Parteiebene und in der Parlamentsarbeit an als auf der Ebene des einzelnen Politikers, der eher gewohnt ist, auf Facebook und Twitter direkt zu reagieren, die analytische Arbeit jedoch bevorzugt von den Partei- und/ oder Abgeordnetenbüros erledigen lässt.
3) Vergleicht man die ländlichen mit den urbanen Regionen, zeigt sich, dass die Menge von relevanten politischen Informationen auf dem Land gering ist. Während die Menge öffentlich zugänglicher Informationen in urbanen Regionen relativ groß ist, hat diese Menge in ländlichen Bereichen sehr viel weniger Gewicht.
Die Erkenntnisse aus den Befragungen werden in der vorliegenden Dissertation systematisch erhoben und ausgewertet.
Mit dem Projektpraktikum "MicSim" wurde 2004 der Grundstein für ein auf Java basierendes Mikrosimulationssystem gelegt. Für das gleichnamige Produkt diente UMDBS von Prof. Dr. Thomas Sauerbier, Fachhochschule Giessen-Friedberg als Vorlage, welche eine Modellimplementierung in MISTRAL vorsieht. Da MISTRAL eine veraltete prozedurale Programmiersprache ist und somit nicht mehr dem objektorientierten Zeitgeist entspricht, entschloss sich die Projektgruppe eine gänzlich neue objektorientierte Umgebung zu erstellen. Diese sollte sowohl den Funktionsumfang von UMDBS beinhalten, als auch eine bequeme Möglichkeit bieten, objektorientierte Modelle einer Mikrosimulation in Java zu erstellen. Das Projektpraktikum endete 2005 mit einem lauffähigen objektorientierten Nachfolger von UMDBS. Da jedoch MicSim noch einige Schwachstellen aufwies, wurde dieses System in der Studienarbeit "MicSim - Agentenbasierte Mikrosimulation" von Pascal Berger, Dennis Fuchs, Peter Hassenpflug und Christian Klein 2006 weiterentwickelt und zu dem heutigen "CoMICS" umbenannt. Jedoch konnten nicht alle Probleme der Software beseitigt werden. So blieb das schlecht skalierende Ablaufverhalten einer Simulation und die unzureichende Unterstützung des Benutzers bei syntaktischen Programmierfehlern weiterhin bestehen. Dies führte zu dem Entschluss, ausgehend von CoMICS, die Idee eines java-basierten Mikrosimulationssystems weiter auszubauen. Im Zuge einer Analyse dieses Systems kristallisierten sich sehr schnell einige Punkte heraus, die uns verbesserungswürdig erschienen. Die gravierendste Veränderung stellte hierbei die Umstellung auf eine event-orientierte Mikrosimulation dar. Hierzu mussten die komplette Modellstruktur, Ablauflogik und sogar jegliche Modellierungswerkzeuge neu entwickelt werden. All dies führte dazu, dass CoMICS II von Grund auf neu entwickelt werden musste.
Recently the workflow control as well as compliance analysis of the Enterprise Resource Planning systems are of a high demand. In this direction, this thesis presents the potential of developing a Workflow Management System upon a large Enterprise Resource Planning system by involving business rule extraction, business process discovery, design of the process, integration and compliance analysis of the system. Towards this, usability, limitations and challenges of every applied approach are deeply explained in the case of an existing system named SHD ECORO.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.
Zusammenfassung Eine Statistik mit einer anderen zu vergleichen, ist keine einfache Angelegenheit. Besonders dann nicht, wenn die Analysen auf zwei Erhebungen basieren, die nicht dieselben Fragestellungen verfolgen, unterschiedliche Erhebungsmethoden zur Grunde liegen, und vor allem dann nicht, wenn die Stichprobengrößen sehr stark voneinander abweichen. Genau darum wird es in dieser Arbeit gehen: Eine Gegenüberstellung von einer amtlichen und einer nichtamtlichen Statistik, der Mikrozensus und das Sozio-ökonomische Panel (SOEP). Eine Hilfskonstruktion zur Untersuchung vom Fertilitätsverhalten von Frauen in Deutschland wird einmal im Mikrozensus und einmal im SOEP durchgeführt. Dabei soll überprüft werden, wie gut oder weniger gut die Übertragbarkeit eines Untersuchungsmodells vom Mikrozensus auf das SOEP möglich ist. Das SOEP bietet die Möglichkeit die Hilfskonstruktion, d.h. also die Schätzungen, auf ihre Validität zu prüfen. Im SOEP wird das Untersuchungsmodell ein zweites Mal durchlaufen, allerdings wird nicht die geschätzte Anzahl an Müttern genommen, sondern die mit dem SOEP tatsächlich festgestellten Anzahl. Auf diese Weise wird versucht die Qualität der Schätzwerte herauszufinden.
In den letzten Jahren konzentrierte sich das E-Government auf die administrativen Aspekte der Verwaltungsmodernisierung. Im nächsten Schritt werden die E-Diskurse als Instrument der Bürgernähe und Mittel der E-Demokratie/E-Partizipation an Bedeutung gewinnen. Mit zunehmender Akzeptanz solcher E-Diskurse werden diese schnell eine Komplexität erreichen, die von den Teilnehmern nicht mehr zu bewältigen ist. Das Problem liegt in der eingeschränkten Möglichkeit, einen in Raum und Zeit verteilten Diskurs zu verfolgen und sich ein Bild von ihm zu machen. Viele Eindrücke, die sich aus Präsenzdiskussionen gewinnen lassen, fehlen. Deswegen hat die vorliegende Arbeit die Zielsetzung der Konzeption und der prototypischen Implementierung eines Instrumentariums (Diskursmeter), womit sich die Teilnehmer, insbesondere die Moderatoren, des E-Diskurses jederzeit einen Überblick über den E-Diskurs schaffen können und so zu ihrem Diskursverständnis (Discourse Awareness) zu gelangen. Über das aktuelle Geschehen im E-Diskurs informiert die gegenwartsorientierte und über das vergangene Geschehen die vergangenheitsorientierte Discourse Awareness, über die etwaige Trends sichtbar sind. Der Fokus der Discourse Awareness liegt in der quantitativen Betrachtung des Geschehens im E-Diskurs. Aus dem in dieser Arbeit entwickelten Modell des E-Diskurses resultieren die Fragestellungen zur Discourse Awareness, deren Konkretisierung Grundlage für die Implementierung des Diskursmeters ist. Die an das Modell des E-Diskurses angebrachten Diskurssensoren zeichnen das Geschehen im E-Diskurs auf, die zu Diskursereignissen führen, die das Diskursmeter in unterschiedlichen Visualisierungsformen präsentiert. Den Moderatoren des E-Diskurses bietet das Diskursmeter die gegenwartsorientierte Discourse Awareness als Monitoring und die vergangenheitsorientierte Discourse Awareness als Abfrage (quantitative Analyse) an.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
E-Mail-Forensik - IP-Adressen und ihre Zuordnung zu Internet-Teilnehmern und ihren Standorten
(2010)
Wesentliches Element des weltweiten Internets bildet der Adressraum der IP-Adressen, die den am Internet teilnehmenden Geräten ("IP-Hosts") zugewiesen sind. IP-Adressen (der Version 4) bestehen aus vier Zahlen zwischen 0 und 255 und repräsentieren viermal acht Bits, mit welchen insgesamt über vier Milliarden Adressen unterschieden werden können. Die zentrale Organisation IANA vergibt an fünf regionale Adressregistraturen Adressräume, welche sie an lokale Registraturen, Telecomanbieter und Internet-Service-Provider weiter verteilen. Diese Adressverteilung ist relativ stabil. Diese Zuordnung ist öffentlich zugänglich über so genannte whois-Abfragen aus Datenbanken der regionalen Registraturen. Die Internet-Service-Provider (ISP) vergeben IP-Adressen an ihre Nutzer. Die Zuordnung wird teilweise statisch mit langfristiger Bindung vorgenommen und teilweise dynamisch nur für die Dauer einer Datenverbindung. Die dynamische Adressverwaltung erlaubt es Internet-Service-Providern, mehr Nutzer zu bedienen, als ihr Adressraum an verschiedenen IPAdressen zulässt, da die Adressen von Geräten, die aus dem Internet ausscheiden, nicht wie bei der statischen Vergabe frei gehalten werden müssen, sondern an sich neu mit dem ISP verbindende Geräte vergeben werden können. In internen Tabellen verwalten die Internet-Service-Provider die Zuordnung von IP-Adressen zu den konkreten Anschlüssen ihrer Nutzer, außerdem protokollieren sie, welcher Anschluss wann welche IP-Adresse hatte . Diese Daten sind öffentlich nicht zugänglich, sondern müssen bei Bedarf mit gesetzlich geregelten Einschränkungen (Datenschutz) erfragt werden.
Die Diplomarbeit "E-Partizipation Virtuelles Ressourcen Portal" beschreibt die Konzeptionalisierung und Implementierung des Virtual Resource Centre (VRC), eines internationalen Ressourcen- und Wissensportals für die multidisziplinäre Forschung und Anwendungsgebiete im Bereich E-Partizipation. Die Notwendigkeit für ein solches Portal entstand im Rahmen des europäischen DEMO_net Projekts, dem Exzellenznetzwerk für E-Partizipation. Das Ziel des Portals ist die verbesserte Verbreitung der aktuellen Wissensstände der angeschlossenen Forscher und Praktiker im Bereich von E-Partizipation. Dabei sollen gemeinsame Arbeiten und Diskussionen in den verteilten Projekten verbessert und die Ergebnisse dieser Arbeiten publiziert und gespeichert werden. Dazu ist ein leicht bedienbares und gut strukturiertes Portal notwendig, da viele angeschlossene Institutionen nicht aus dem technischen Bereich kommen. Die weiteren Ziele des VRC sind unter anderem, redundante Entwicklungen zu vermeiden, exzellente Forschungs- und Umsetzungseinrichtungen des Themenfeldes auszuweisen und die laufenden Projekte in E-Partizipation nach wählbaren Kategorien dynamisch aufzulisten. Die technische Grundlage für das Wissensportal ist ein mit vielen Erweiterungen versehenes Web Content Management System (WCMS). Um das den Anforderungen entsprechende WCMS zu ermitteln, werden mittels einer Nutzwertanalyse die verschiedene Systeme Plone, TYPO3 und Xoops verglichen. Durch das Einbinden und Entwickeln von Erweiterungen werden die speziellen Anforderungen an das VRC erfüllt, die die Verwaltung von Publikationen, Übersicht über Projekte, und Forschungsdisziplinen usw. unter Verwendung aktueller Web 2.0 Funktionalitäten beinhalten. Der Diplomarbeit liegen zwei Forschungsmethodiken zu Grunde. Design Research wurde als die grundlegende Methodik für diese Diplomarbeit gewählt. Design Research beschreibt in fünf Phasen einen Leitfaden nach dem ein Portal modelliert und anschließend realisiert werden kann. Eine weitere angewandte Methodik ist das Hypertext Design Modell, welches zum Erstellen eines Modells des VRC genutzt wird. In der Beschreibung der Implementierungen werden neben den Änderungen am WCMS, unter anderem auch die Benutzerverwaltung und Zugriffssteuerung, handbuchartig beschrieben. Zum Abschluss wird ein Überblick über die entstandenen Herausforderungen und Empfehlungen für weitere Entwicklungen und mögliche Arbeiten gegeben.
Diese Arbeit analysiert die Möglichkeiten der Text- und Netzwerkanalyse kriminologischer Daten. Dabei werden diese Daten unter dem Aspekt der Geldwäsche betrachtet. Zum Zweck der Analyse wurden aus dem Text die wichtigsten Konzepte in elf verschiedene Klassen aufgeteilt. Die Zusammenhänge zwischen den identifizierten Konzepten wurden ebenfalls untersucht. Einige Aussagen über Geldwäsche lassen sich durch die Interpretation der Ergebnisse validieren. Es werden bestimmte Konzepte, wie Banken, Unternehmen und ausländische Tochtergesellschaften als wichtige Konzepte identifiziert. Das bestätigt zusammen mit dem in Kapitel 1.4.3 dargestellten zyklischen Ablauf von Geldwäschevorgängen die Vermutung, dass bestimmte Organisationen und Personen, innerhalb des betrachteten Falles, Gelder über Banken, Gesellschaften und Investitionen in den legalen Finanzmarkt einfließen lassen. Ebenfalls wird innerhalb dieser Arbeit der Nutzen der betrachteten Tools für den hier zugrundeliegenden Forschungsprozess analysiert und eine Einschätzung der Eignung von ORA und Automap für diese Art von Forschung geliefert.
Im Rahmen dieser Arbeit wird der Einfluss des Wahlszenarios auf die Geheimheit und Öffentlichkeit der Wahl herausgearbeitet. Ein Wahlszenario wird durch seine Wahlform und die verwendete Wahltechnik bestimmt. Bei der Wahl-form kann zwischen einer Präsenz- und einer Fernwahl unterschieden werden. Bei der Wahltechnik zwischen der Papier- und der elektronischen Wahl. Mit der Papier-Präsenzwahl, der Briefwahl (Papier-Fernwahl) und der Internetwahl (elektronische Fernwahl) werden drei prominente Wahlszenarien und ihr Einfluss auf Geheimheit, Privatheit und Öffentlichkeit untersucht.
Moderne Groupware- und Social Software Systeme nehmen nicht nur im privaten Nutzerbereich eine immer stärkere Rolle ein, sondern bergen vor allem für Unternehmen einen noch nicht vollständig erfassten Mehrwert. Erkenntnisse und Erfahrungen aus Praxis und Forschung zeigen, dass Web 2.0 Tools im Unternehmenseinsatz zu einem Mehrwert führen können, wenn sie im richtigen Kontext eingesetzt und in der entsprechenden Kultur eingebettet sind. Sie unterstützen insbesondere bei der Meinungsäußerung, Kollaboration und Selbstorganisation. Vor allem Social Software und Social Networking werden von der Gartner Group, einem der weltweit führenden Marktanalysten von Business Software, im Jahr 2009 unter den zehn für Unternehmen strategisch relevanten Technologien geführt. Trotzdem gibt es gegenwärtig kaum Systeme, die alle erforderlichen Funktionalitäten von Groupware und Social Software in einer Lösung vereinen. Eine der erfolgreichsten Softwaresuiten im Bereich Groupware stellt die Lotus Notes/Domino Lösung von IBM dar. Anhand dieser Softwaresuite wird in der vorliegenden Arbeit gezeigt, wie am Beispiel einer universitären Forschungsgruppe Groupware-Systeme in Kombination mit Social Software in eine Enterprise 2.0 Arbeitsumgebung überführt werden können. Dabei werden "ältere" Groupware Anwendungen, wie E-Mail und Kalenderfunktionen, mit neueren Werkzeugen wie Blogs, Wikis oder Social Bookmarking verknüpft. Das Ergebnis zeigt, dass technische Veränderungen zwar schnell umzusetzen sind, Veränderungen im Kommunikations- und Arbeitsalltag von Menschen allerdings nur langsam erreicht werden. Die Forschungsgruppe für Betriebliche Anwendungssysteme in Koblenz untersucht und evaluiert neue Werkzeuge für die CSCW-Forschung, nutzt intern Groupware zur Arbeitsunterstützung und setzt den ihr übertragenen Lehrauftrag um. Von den an der Lehre beteiligten Parteien, z.B. Studierende und Dozenten, werden die gleiche Flexibilität und das Wissen um moderne Arbeitsformen verlangt, die auch Unternehmen aktuell an ihre Mitarbeiter stellen. Für den Umgang mit modernen Arbeitsformen, Werkzeugen und verschieden Endgeräten bedarf es Erfahrungen und Kompetenzen. Diese Kompetenzen sind sowohl in Bildungseinrichtungen wie auch in Unternehmen über alle Altersschichten aufzubauen. Für den Aufbau und die Schulung solcher Kompetenzen wurde am Standort Koblenz ein Hochschul Competence Center gegründet. Die Notwendigkeit und das Angebot der Schulung bezieht sich dabei nicht nur auf ältere Generationen, sondern auch auf die gerne als "Digital Natives" oder nach 1980 geborenen Generationen, da diese entgegen anders lautender Annahmen nicht automatisch über die geforderten Kompetenzen verfügen. Enterprise 2.0 einzuführen bedarf einer klaren Managemententscheidung. Die Schulung der Kompetenzen sowie die Nutzung von Enterprise 2.0 bedarf der Akzeptanz und somit einer partizipativen Beteiligung.
Ziel der vorliegenden Arbeit ist die Entwicklung von Zukunftsszenarien, anhand derer die Entwicklung der Technik und des Einsatzes elektronischer Signaturen im europäischen eGovernment im Jahr 2020 untersucht werden kann. Mit Hilfe der Ergebnisse im Vergleich zur aktuellen Situation soll ein Forschungsplan entworfen werden, der vorhandene Lücken schließt und die Weiterentwicklung des Themas auf die zukünftigen Veränderungen unserer Gesellschaft vorbereitet.
Im Rahmen der Diplomarbeit "Enterprise Architectures für Hochschulverwaltungen: Analyse und Empfehlungen für die Universität Koblenz-Landau" wird eine Lösung entwickelt, die eine ganzheitliche Sicht auf die Geschäftsarchitektur unserer Universitätsverwaltung bietet. Im Mittelpunkt stehen dabei die Arbeitsprozesse innerhalb der Verwaltung, die von den Sachbearbeitern durchgeführt werden. Ein weiterer Betrachtungsgegenstand ist die vorhandene Anwendungsarchitektur. Diese wird zur Unterstützung der Aufgaben und Tätigkeiten eingesetzt. Die Beschreibung der Architekturen erfolgt durch Modellierungen. Diese sind ein wichtiges Instrument für die Kommunikation zwischen unterschiedlichen Beteiligten. Zu Beginn der Qualifikationsarbeit werden aktuelle Forschungsprojekte unterschiedlicher Hochschulen vorgestellt. Beschrieben werden bekannte Enterprise Architecture Frameworks sowie Analyse- und Modellierungsmethoden. Im empirischen Teil der Ausarbeitung wird das Konzept zur Analyse dargestellt. Es folgt eine Beschreibung der Ist-Architektur durch Prozesslandkarten, Informationsflussgraphiken, einen Bebauungsplan und ein Prozessmodell. Im Anschluss daran wird eine Bewertung der Architekturen vorgenommen. Am Ende der Arbeit werden interne Handlungsempfehlungen und Empfehlungen für die Kommunikation mit externen Organisationen gegeben. Ein existierender Prozess, die Anzeige von Drittmittelprojekten, wird analysiert, modelliert und bewertet. Es wird der Prototyp eines Informationssystems präsentiert, der den Prozess informationstechnisch unterstützen kann. Abgerundet wird die Diplomarbeit durch Hinweise für die weitere Umsetzung, eine Zusammenfassung und einen Ausblick.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.
Zum Zeitpunkt der Erstellung der Diplomarbeit wird in der Forschungsgruppe "IT-Risk-Management" von Prof. Dr. Rüdiger Grimm an der Universität Koblenz-Landau eine neue Methode zur Unterstützung der Einhaltung des Urheberrechts entwickelt. Der als Usage Rights Management (URM) bezeichnete Ansatz soll Benutzer über ihre Nutzungsrechte an den, auf dem eigenen Rechner vorhandenen, digitalen Mediendateien informieren. Ein weiterer Bestandteil des URMs ist die Unterstützung des Nutzers mit den Dateien rechtskonform umzugehen. Das Ziel der vorliegenden Diplomarbeit ist es, ein System zum Datenaustausch zu entwerfen und prototypisch umzusetzen. Dieses System soll den Benutzern die Möglichkeit geben, sowohl unter URM stehende digitale Mediendateien von anderen Personen einsehen und downloaden zu können als auch eigene URM-Dateien anderen Benutzern zur Verfügung stellen zu können. Diese Anforderungen sollen mittels eines lizenzbewussten P2P-Client umgesetzt werden.
Social Network of Business Objects (SoNBO) ist ein Konzept, um im Unternehmen in heterogenen Systemlandschaften verteilte Informationen zu aggregieren und gesammelt auf einer Benutzeroberfläche zur Verfügung zu stellen. Die zentrale Idee ist dabei, die Unternehmensinformationen als Netzwerk (auch: Graph) zu verstehen. Es gibt bereits einen SoNBO-Explorer, der die Informationen eines Customer Relationship Management-Systems (CRM-System) integriert. Die Herausforderung bei der Konfiguration einer solchen Anwendung besteht darin, das Unternehmensnetzwerk zu identifizieren, und auf diese Weise heraus zu finden, wie die gespeicherten Daten im Unternehmen verknüpft sind. Dafür ist ein Tool hilfreich, das das Unternehmensnetzwerk visualisieren kann. In dieser Arbeit wird ein selbstentwickeltes Tool (SoNBO-Graph-App) als Prototyp vorgestellt, das diese Visualisierung ermöglicht. Mit dieser Anwendung kann die Konfiguration des Netzwerks im SoNBO-Explorer bestehend aus den zusammengeführten Daten unterstützt werden, indem diese Konfiguration auf graphischer Ebene durchgeführt wird. Der Prototyp ist an zwei verschiedenen Datenbanken eines Customer Relationship Management (CRM) Systems angebunden und ermöglicht die Aggregation dieser Daten, sodass sie in einer Übersicht zusammenhängend als Graph dargestellt werden. Dadurch erhält der Anwender einen besseren Überblick und ein Verständnis über den Zusammenhang der unterschiedlichen Daten. Diese Arbeit ist Teil des Langzeitforschungsprojekts SoNBO, dessen Ziel ein Konzept zur Integration von Informationen verschiedener geschäftlicher Anwendungssysteme ist.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
Diese Diplomarbeit analysiert die Voraussetzungen für eine Simulation mit Normen, schlägt einen Coderahmen vor und stellt ein Modellierungs- und Codegenerierungs-Plugin für Eclipse, das auf einem Metamodell für Multi-Agenten-Simulationen basiert, zur Verfügung. Mit Hilfe des Plugins werden zwei Beispiele, die Normen aus verschiedenen Blickwinkeln betrachten, implementiert und diskutiert. Das erste ist das Kirk-Coleman-Modell, welches sich mit dem Verhalten von Menschen in einer 3-Personen-Gruppe beschäftigt. Das zweite Modell beinhaltet den fördernden Effekt von Sanktionierung auf Kooperation. Abschließend werden die erarbeiteten Lösungsansätze und Alternativen diskutiert und Vorschläge für das EU-Projekt "Emergence in the Loop" (EMIL) abgeleitet.
Bei dem für dieses Schutzprofil (engl. "Protection Profile" im Folgenden PP genannt) herangezogenen Evaluationsgegenstand (im Folgenden EVG genannt) handelt es sich um einen Router, der einen Schutz gegen Online-Überwachung bietet. Der EVG-Typ ist hierbei ein handelsüblicher Internet-Router, der in Privathaushalten und kleineren Firmen eingesetzt wird. Der EVG umfasst den gesamten Router, so dass sowohl die Hardwarekomponenten als auch die Softwarekomponenten betrachtet werden. Es ist dabei irrelevant, ob es ein Modell mit integriertem Breitband-Modem ist oder ob dieses separat angeschlossen ist.
Kurzfassung Theorien, Szenarien, Vermutungen und Annahmen lassen sich in den Sozialwissenschaften seit geraumer Zeit mittels computergestützter Simulation analysieren, erhärten oder entkräften. Im Feld der Simulationsumgebungen gibt es eine Vielzahl unterschiedlicher Softwarelösungen. Das Projekt EmIL hat zum Ziel eine Simulationsumgebung zu erschaffen, die einen Schritt weiter geht als die bisher etablierten Lösungen. So soll in dieser Simulationsumgebung namens EmIL-S die Möglichkeit geschaffen werden Normentstehung zu analysieren. Dies wird durch eine Auftrennung der Simulationsumgebung in verschiedene Bereiche erreicht. Diese Diplomarbeit beschreibt die Konzepte die hinter diesem Projekt stehen und stellt einen lauffähigen Prototyp für diese Simulationsumgebung zur Verfügung. Die Erstellung dieses Prototypens, das hierfür zugrunde liegende Szenario und alle verwendeten Komponenten werden detailliert in dieser Arbeit beschrieben. Auch werden die mittels dieses Prototypens gewonnen Erkenntnisse dargelegt und analysiert. Im Zuge dieser Beschreibungen werden konzeptionelle sowie technische Fehler an der Simulationsumgebung aufgezeigt und Lösungs- bzw. Verbesserungsvorschläge dargelegt. Diese Arbeit kann auch als Leitfaden für die Erstellung von Simulationen mittels EmIL-S hilfreich sein.
Seit dem 01. November 2005 ist in Deutschland der neue Reisepass erhältlich. Ein wesentliches Merkmal dieses neuen Passes ist die Einbindung von biometrischen Merkmalen, um den Besitzer des Dokumentes zu verifizieren. In anderen Bereichen, wie zum Beispiel der Abwicklung von Vielfliegern an einem Flughafen, halten ähnliche biometrisch gestützte Verfahren Einzug. Weitere Anwendungsmöglichkeiten wären die Absicherung des eigenen Arbeitsplatzes gegen den Zugriff unbefugter Personen, die Verfolgung von Straftätern oder die Verifikation eines Benutzers innerhalb des Internets. Der Wunsch nach Sicherheit in vielen Sektoren steigt zunehmend. Ein Weg, diese Sicherheit zu bieten, ergibt sich aus den Eigenschaften, die einen Menschen selbst als Unikat auszeichnen. Das Ziel dieser Studienarbeit besteht darin, sich das persönliche Verhalten eines Menschen im Umgang mit einer Tastatur zunutze zu machen, um eine Aussage treffen zu können, inwiefern eine Benutzereingabe mit einer vorher generierten Vergleichseingabe übereinstimmt. Der Schwerpunkt liegt dabei in der Erstellung eines Programms, welches in der Lage ist, verschiedene Parameter während einer Benutzereingabe zu sammeln, auszuwerten und zu sichern, um den entsprechenden Benutzer zu jeder beliebigen Zeit wieder anhand der abgespeicherten Informationen erkennen zu können. Dabei wird darauf geachtet, dass die entstehende Software auf möglichst vielen bestehenden Systemen ohne größere Probleme angewendet werden kann.
Das Ziel dieser Diplomarbeit ist es einen Kriterienkatalog zu erarbeiten, anhand dessen die technische Sicherheit von E-Commerce-Webseiten automatisiert überprüft werden kann. Dazu wird wie folgt vorgegangen. Nach einer Einleitung, die die Ausgangslage und die Motivation dieser Diplomarbeit zeigt, wird eine Aufbauanalyse von E-Commerce Webangeboten durchgeführt. Es werden gezielt die technischen Bausteine betrachtet, die für den Aufbau benötigt werden. Anschließend werden technische Schwachstellen (Fehlerquellen) von E-Commerce Webangeboten dargelegt. Der Schwerpunkt liegt dabei auf Programmierfehlern, Konfigurationsfehlern, Konzeptionsfehlern und Fehlern resultierend aus menschlichem Handeln. Parallel zu den Schwachstellen werden die jeweiligen Bedrohungspotentiale für einen E-Commerce Anbieter erörtert. Hierauf folgt eine kurze Vorstellung der generellen Risikopotentiale der verschiedenen Parteien, die bei einer E-Commerce Transaktion beteiligt sind. In dem darauf folgenden Schritt werden etablierte Kriterienkataloge vorgestellt. Diese werden kritisch bewertet, inwieweit sie befähigt sind zur Erstellung des angestrebten Kriterienkataloges beizutragen. Es werden klassische Kataloge wie das Orange Book, Common Criteria aber auch aktuelle Kataloge wie der BSI Grundschutzkatalog begutachtet. In dem nächsten Schritt werden die eigentlichen Kriterien in Listen einsortiert. Es wird differenziert analysiert "was" überprüft werden kann und "was" nicht. Daraufhin werden die Kriterien anhand von Schwachstellen in ein Ebenenmodell unterteilt. Das Ebenenmodell orientiert sich an Vorgaben des BSI und besteht aus der Protokollebene, der Dienstebene und der Anwendungsebene. Im Anschluss daran findet eine Gewichtung aller Kriterien anhand ihrer Automatisierbarkeit, ihrem Schadenspotenial und ihrer Verbreitung statt. Im vorletzten Schritt werden Lösungen vorgestellt, auf welche Weise der Kriterienkatalog automatisiert werden kann. Um einen Marktüberblick zu bieten werden verschiedene Web Vulnerability Scanner von kommerziellen Anbietern in Hinblick auf ihren Funktionsumfang, ihre Preisgestaltung und ihrer Bedienung verglichen. Der letzte Schritt dieser Diplomarbeit behandelt im Gegensatz zu den vorhergehenden Kapiteln weniger die theoretische Ebene. Er bietet stattdessen Anhand von Praxisszenarien dem Leser die Möglichkeit die Auswirkungen von Schwachstellen und Attacken auf reale Anwendungen nach zu vollziehen.
Die vorliegende Arbeit beschäftigt sich mit den Nutzenpotentialen des GeoPortal.rlp. Hierzu werden zwei empirische Studien erhoben. Die erste Studie ist eine Nutzerumfrage bezüglich des Portals. Die zweite Studie besteht aus Experteninterviews um potentielle Kooperationspartner zu identifizieren. Aus den Ergebnissen der beiden Studien werden Handlungsempfehlungen abgeleitet.
In dieser Arbeit geht es darum, einen Einblick in das Thema Wireless LAN zu vermitteln. Es werden zunächst einmal die gängigsten Standards und weitere wichtige Aspekte aus diesem Bereich vorgestellt. Das Hauptaugenmerk dieser Arbeit liegt jedoch darauf, wie die Kommunikation in Funknetzwerken sicherer gestaltet werden kann. Im Zuge dessen werden einige Mechanismen vorgestellt, mit denen es möglich ist, die Kommunikation zu verschlüsseln oder nur bestimmte Teilnehmer an der Kommunikation teilnehmen zu lassen. Mit diesen Mechanismen ist es dann möglich eine hohes Maß an Sicherheit in Funknetzwerken zu erreichen. Abschließend wird in einem Tutorial beschrieben, wie die zuvor vorgestellten Mechanismen eingerichtet und angewendet werden können.
Identifikation und Analyse von Konfigurationen zwischenbetrieblicher Integration in der Möbelbranche
(2017)
In der Möbelbranche in Deutschland existieren seit mehreren Jahren branchenweite Bemühungen, zwischenbetriebliche Kooperationen durch organisatorische und technische Lösungen (z.B. Standardisierung von Austauschformaten) zu unterstützen. In einigen Branchensegmenten (vor allem Küche und Polster) konnten sich Infrastrukturen zur Integration etablieren, die von vielen Branchenteilnehmern akzeptiert und genutzt werden. Trotz dieser Entwicklung sind in den genannten Branchensegmenten überraschende Phänomene in jüngerer Vergangenheit zu beobachten: Mängel in der Prozessintegration zwischen Branchenakteuren, Unterschiede im Standardisierungsfortschritt zwischen den Branchensegmenten und die Entstehung unterschiedlicher Infrastrukturen zur zwischenbetrieblichen Integration. Bei näherer Betrachtung der beobachteten Phänomene offenbart sich ein hoch-komplexes Zusammenspiel der in der Möbelbranche agierenden Akteure auf drei unterschiedlichen Ebenen (institutionell, organisatorisch und technisch). Um die verantwortlichen Zusammenhänge zu verstehen, ist eine ganzheitliche Betrachtung relevanter Faktoren erforderlich. Dafür gibt es bislang nur wenige überzeugende Konzepte. Die Konfigurationsanalyse nach Lyytinen und Damsgaard betrachtet Unternehmensnetzwerke als Konfigurationen zwischenbetrieblicher Integration, die einem stabilen Muster von Kooperationsformen entsprechen. Sie ist insbesondere dafür geeignet, Unternehmensnetzwerke auf Branchenebene zu untersuchen. In der vorliegenden Arbeit wird die Konfigurationsanalyse mittels eines speziell dafür entwickelten bzw. angepassten Forschungsdesigns zum ersten Mal operationalisiert. Dazu wurden in 21 Interviews mit 19 Organisationen Daten zu Konfigurationen zwischenbetrieblicher Integration in zwei Branchensegmenten der Möbelbranche (Küche und Polster) in Deutschland erhoben, analysiert und Erklärungsansätze für die drei oben genannten Phänomene entwickelt. Die Ergebnisse zeigen, dass komplexe Konstellationen von Brancheneigenschaften die existierenden Konfigurationen begründen. Insgesamt wurden vier Konfigurationstypen (Mittler, Branche, Dyade und Triade) identifiziert, die in 17 konkreten Konfigurationen zum Einsatz kommen (Mittler (4-mal), Branche (5-mal), Dyade (6-mal) und Triade (2-mal)). Die Ursachen für die beobachteten Phänomene sind vielfältig. Insbesondere sind bestimmte branchenbezogene Charakteristika (u.a. Produkteigenschaften),der Wettbewerb zwischen Akteursklassen und zuletzt die wirtschaftliche Überlegenheit des Handels gegenüber den Herstellern ausschlaggebend. Der Standardisierungsfortschritt in den Branchensegmenten und die zugrunde liegenden Infrastrukturen sind vor allem von dem betriebswirtschaftlichen Nutzenpotenzial abhängig, das ihnen jeweils zugeschrieben wird. Die Prozessintegration hingegen benötigt eine zentral steuernde Instanz zur erfolgreichen IOIS-Diffusion.
In den letzten Jahren hat das Internet of Things in Unternehmen sowie der Literatur wegen seiner Innovationspotenziale zunehmend Aufmerksamkeit gewonnen. Auch die Logistik bleibt von dem wachsenden Interesse am Internet of Things nicht unberührt, da die Globalisierung und der steigende Konkurrenzdruck sie ständig vor neue Herausforderungen stellt. Deshalb wird nach Ansätzen und Anwendungen geforscht, wie die Logistik zur Bewältigung ihrer Herausforderungen von den Konzepten des Internet of Things, seinen Ideen sowie Technologien profitieren kann. Diese Ausarbeitung befasst sich mit der Identifikation jener Ansätze und Anwendungen in Logistikprozessen. Dazu wird aktuelle Literatur hinsichtlich des Innovationspotenzials des Internet of Things für die Logistik und ihre Prozesse untersucht. Das Ergebnis dieser Arbeit ist eine strukturierte Übersicht von identifizierten IoT Logistik Use Cases, inklusive der verwendeten Devices sowie der betroffenen Stakeholder. Die Fragen, ob das Internet of Things den Erwartungen gerecht wird, welchen Nutzen die IoT Use-Cases bieten und welche Problembereiche sich infolge des Einsatzes von Internet of Things Technologien ergeben, werden am Ende dieser Ausarbeitung geklärt.
Informatik hautnah erleben
(2010)
In vielen Köpfen - sowohl bei Erwachsenen wie auch bei Schülern - geistert der Glaube, dass Informatik die Wissenschaft der "Computerlehre" ist. Schon der berühmte Satz "In der Informatik geht es genauso wenig um Computer wie in der Astronomie um Teleskope", der dem Informatiker Edsger W. Dijkstra (1930 - 2002) zugeschrieben wird, drückt historisch schon früh den Gedanken aus, dass die Informatik den Computer nur als ein Hilfsmittel und Medium nutzt, genauso wie die Mathematik den Taschenrechner. Die Fehlvorstellung, die leider auch häufig in den Schulen vermittelt wird, zeigt, dass hier Aufklärung nötig ist.
Die Bedeutung von Innovation für die Sicherung der Unternehmensexistenz nimmt zu. Gerade im Bereich der Informations- und Kommunikationssysteme zwingen veränderte Rahmenbedingungen, verkürzte Produktlebenszyklen und verstärkter Wettbewerb viele Unternehmen zur Anpassung ihrer Innovationsgeschwindigkeit. Langfristiger Erfolg wird sich nur für die Unternehmen einstellen, denen es gelingt, durch technologische Innovationen ihre Wettbewerbsposition zu festigen oder auszubauen. Dies erfordert einen gesonderten Umgang mit technologischen Innovationen und verlangt nach einem Technologie- und Innovationsmanagement. Dabei ist nicht jede Innovation das Produkt einer einmaligen, möglicherweise gar spontanen Idee. Viele Innovationen entstehen aus der Integration oder Kombination bereits bewährter Technologien. Dies ist besonders interessant, wenn die originären Technologien Branchen entstammen, die nur noch marginale Wachstumsraten aufweisen. Ziel dieser Arbeit ist die Identifizierung eventuell existierender Mängel etablierter Vorschläge für ein strategisches Technologie- und Innovationsmanagement, sowie darauf aufbauend die Formulierung eines eigenen Vorschlags zum Umgang mit Innovationen, die durch Technologieintegration entstanden sind.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Diese Arbeit kombiniert zwei Themengebiete, welche in unserer Gesellschaft und Wirtschaft immer präsenter und aktueller werden. Das erste Thema beinhaltet die Nachhaltigkeit, welche sich in dieser Arbeit in die drei Säulen Ökologie, Ökonomie und Soziales untergliedert. Die erste Säule, Ökologie, beschäftigt sich hauptsächlich mit der Bekämpfung von Umweltproblemen und dem nachhaltigen Erhalt der Natur. Der Bereich Ökonomie befasst sich damit, die Ressourcen nachhaltig zu nutzen, um ein langfristiges Erzielen von wirtschaftlichen Erträgen zu gewährleisten. Die letzte Säule hat den Zweck die Soziale Nachhaltigkeit zu fördern, indem der gesellschaftliche Zusammenhalt gesichert und die Chance auf Arbeit ermöglicht wird, um gleichzeitig für gute Arbeitsbedingungen zu sorgen. Alle drei Säulen sind daher auch für Unternehmen relevant und sollten von diesen stetig beachtet werden, um eine sogenannte unternehmerische Nachhaltigkeit umzusetzen. Zur Unterstützung dieser Umsetzung, soll hier das zweite Thema hinzugezogen werden, das sogenannte Internet of Things. Das Internet of Things gewinnt, wie auch das Thema Nachhaltigkeit, zunehmend an Bedeutung und bietet viele Vorteile zur Unterstützung nachhaltiger Unternehmen. Dabei sollen immer mehr Geräte zu intelligenten Geräten gewandelt werden um eine Integration in ein Informationsnetzwerk zu gewährleisten. Dort können gesammelte Daten sinnvoll analysiert und genutzt werden, wodurch viele Bereiche effizienter gestaltet und viele Handlungen erleichtert werden können.
Aufbauend auf diesen zwei Themengebiete werden, im weiteren Verlauf dieser Arbeit, IoT- Technologien vorgestellt, die der Unterstützung, in den Bereichen Ökologie, Ökonomie und Soziales, von Unternehmen dienen. Zu den aufgezeigten Technologien werden anschließend Beispiele präsentiert und, wenn vorhanden, auch die jeweiligen Anbieter.
Da eine Nutzung von IoT-Technologien nicht nur von Vorteil ist, sondern auch Herausforderungen mit sich bringt, werden diese abschließend aufgezeigt. Diesen Herausforderungen gilt es sich seitens der Unternehmen, der Gesellschaft und auch der Politik zu stellen, um eine effiziente Nutzung zu ermöglichen.