Refine
Year of publication
Document Type
- Diploma Thesis (23)
- Part of Periodical (22)
- Bachelor Thesis (21)
- Study Thesis (12)
- Master's Thesis (8)
- Doctoral Thesis (7)
- Book (1)
Language
- German (94) (remove)
Has Fulltext
- yes (94) (remove)
Keywords
- Datenschutz (3)
- Evaluation (3)
- Instant Messaging (3)
- Computersimulation (2)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- Datenaustausch (2)
- Datensicherheit (2)
- E-IMS (2)
- E-Partizipation (2)
- Electronic Government (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Informatik (2)
- Internetzugang (2)
- Java (2)
- Kryptographie (2)
- Logistik (2)
- Ontologie (2)
- Prozessmanagement (2)
- RFID (2)
- Router (2)
- Sicherheit (2)
- Simulation (2)
- SpoGA (2)
- Supply Chain Management (2)
- Usage Rights Management (2)
- WLAN (2)
- Web 2.0 (2)
- ARIS (1)
- Advanced Encryption Standard (1)
- Agent (1)
- Analyse (1)
- Anforderung (1)
- Anforderungskatalog (1)
- Anwendungssoftware (1)
- Architekturbewertung (1)
- Audiodatei (1)
- Ausstellung (1)
- Authentifizierung (1)
- Awareness (1)
- BI (1)
- Bachelorstudiengang (1)
- Balanced Scorecard (1)
- Benutzerverhalten (1)
- Biometrie (1)
- Business Continuity Management (1)
- Business Intelligence (1)
- Business Software (1)
- Business intelligence (1)
- CSCW (1)
- CSV (1)
- Campus Koblenz (1)
- Chiffrierung (1)
- CollaborativeWriting (1)
- Computer Supported Cooperative Work (1)
- Content Management (1)
- DEMO_net (1)
- Data Analysis (1)
- Data Warhousing (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Datenaustauschstandard (1)
- Datenschutzpolicy (1)
- Delphi-Studie (1)
- Demoskopie (1)
- Diffie-Hellman-Algorithmus (1)
- Digital Rights Management (1)
- Disaster Recovery (1)
- Diskursmeter (1)
- Diskursverständnis (1)
- E-Commerce (1)
- E-Demokratie (1)
- E-Mail (1)
- E-participation (1)
- ERP-System (1)
- ERP-Systeme (1)
- ESSA (1)
- EU-Dienstleistungsrichtlinie (1)
- Eclipse <Programmierumgebung> (1)
- Electronic Commerce (1)
- Elektronische Signaturen (1)
- Elektronisches Wasserzeichen (1)
- EmIL (1)
- Emergence in the Loop (EMIL) (1)
- Empfehlung (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise Resource Planning (1)
- Enterprise-Resource-Planning (1)
- Erstgebärende (1)
- Europäischer Binnenmarkt (1)
- Event (1)
- Faktorenanalyse (1)
- Fertilitaet (1)
- Firewall (1)
- Forensik (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Funkerkennung (1)
- Funknetzwerk (1)
- GPS (1)
- Gaps (1)
- Geburt (1)
- Geburtshaus (1)
- Geoinformation (1)
- Geschäftsprozess (1)
- Gesundheitswesen (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Handelsvertretung (1)
- Handlungsempfehlungen (1)
- Hausgeburt (1)
- Hebamme (1)
- IM-Systeme (1)
- IP-Adressen (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- InFO (1)
- Information Flow Ontology (1)
- Innovation (1)
- Innovationsmanagement (1)
- Integration (1)
- Interaktives Fernsehen (1)
- Internet (1)
- Interoperabilität (1)
- Intranet-Zugang (1)
- Jabber (1)
- Jabber <Programm> (1)
- Katastrophenschutz (1)
- Kirk-Coleman-Modell (1)
- Knowledge Graph (1)
- Kontextbezogener Dienst (1)
- Kontinuität (1)
- Kontinuitätsmanagement (1)
- Krankenhausinformationssystem (1)
- Krisenmanagement (1)
- Kriterienkatalog (1)
- Lebensmittelallergie (1)
- Leistungsmessung (1)
- LexLearn (1)
- Lexikon (1)
- Mann-Whitney (1)
- Marktanalyse (1)
- Masterstudiengang (1)
- Mikroanalytisches Modell (1)
- Mikroanalytisches Simulationsmodell (1)
- Mikrosensus (1)
- Mikrosimulationsmodell (1)
- Mikrozensus (1)
- Mobile Commerce (1)
- Mobile Health (1)
- Mobile Parking (1)
- Mobile Payment (1)
- Mobile Ticketing (1)
- Mobiles Multiplayerspiel (1)
- Mobiles Umfeld (1)
- Mobilkommunikation (1)
- Modellierung (1)
- Moderierte Diskussionen (1)
- Mustererkennung (1)
- NPO (1)
- Nonprofit-Organisation (1)
- Norm (1)
- Normentstehung (1)
- Notfall (1)
- Notfallmanagement (1)
- Notfallvorsorge (1)
- Nutzungsrechte (1)
- ODRLv2 (1)
- Office-Prozess (1)
- Online-Befragung (1)
- Online-Überwachung (1)
- Onlinespiele (1)
- Onlinewahl (1)
- Open Digital Rights Language (1)
- Open Source (1)
- Opinion mining (1)
- Optimierung (1)
- Outsourcing (1)
- P2P (1)
- P3P (1)
- P3P-Policy-Generator (1)
- Partizipation (1)
- Perinatalbogen (1)
- Personalausweis (1)
- Personenidentifizierung (1)
- PostgreSQL (1)
- Preisbildung (1)
- Privacy (1)
- Prozessanalyse (1)
- Prozessanalyse <Prozessmanagement> (1)
- RCP (1)
- RFCO (1)
- RMIS (1)
- Rangtest (1)
- ReMiP (1)
- Register (1)
- Regulierung (1)
- Requirements-Engineering (1)
- Restrukturierung (1)
- Risikomanagement-Informationssysteme (1)
- Risk (1)
- Route Planning (1)
- Routenplanung (1)
- Router-based Flow Control Ontology (1)
- SOA (1)
- SOA-Webservice (1)
- Sales Ageny (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Security (1)
- Sich langsam verändernde Dimensionen (1)
- Sicherheitsanforderungen (1)
- Simulations-Wiki (1)
- Slowly Changing Dimensions (1)
- SocSimNet (1)
- Sozialwissenschaftliche Methodenlehre (1)
- Soziooekonomisches Panel (1)
- Spieleentwicklung (1)
- SpoGa (1)
- Statistics , Social Science Methods (1)
- Statistik (1)
- Strategie (1)
- Strategy (1)
- System Dynamics (1)
- Systemanalyse (1)
- Tastatur (1)
- Tastatureingabeverhalten (1)
- Technologiemanagement (1)
- Technology Management (1)
- Telemedizin (1)
- Tracking (1)
- URM (1)
- Umfrage (1)
- United Internet AG (1)
- Universität Koblenz-Landau (1)
- Unternehmen (1)
- Unternehmensarchitektur (1)
- Veranstaltung (1)
- Verbraucherforschung (1)
- Verwaltungsautomation (1)
- Videoübertragung (1)
- Visualisierung (1)
- W-LAN (1)
- Webseiten (1)
- Wertschöpfungskette (1)
- Wiki (1)
- Wikipedia (1)
- Wilcoxon-Rangsummentest (1)
- Wissensmanagement (1)
- World Wide Web 2.0 (1)
- XMPP (1)
- Zufriedenheit (1)
- Zukunftsszenario (1)
- activation functions of neurons (1)
- agent (1)
- amtliche Haushaltsbefragungen (1)
- artifcial neural networks (1)
- computer clusters (1)
- deutschsprachiger Markt (1)
- eGovernment (1)
- eGroupware (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- event (1)
- factor analysis (1)
- java (1)
- keystroke biometric recognition (1)
- mann-whitney (1)
- midwife (1)
- nichtamtliche Haushaltsbefragungen (1)
- official household surveys (1)
- out-of-hospital birth (1)
- parallel algorithms (1)
- perinatal (1)
- person (1)
- pregnancy (1)
- privacy (1)
- security (1)
- security requirements (1)
- unofficial household surveys (1)
- Öffentliche Verwaltung (1)
Institute
- Institut für Wirtschafts- und Verwaltungsinformatik (94) (remove)
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
Absicherung und Verifikation einer Instant Messaging-Kommunikation über Diffie Hellman Key Agreement
(2009)
Im Rahmen dieser Bachelorarbeit soll die Absicherung und Verifikation einer Instant Messaging-Kommunikation beschrieben und in Form eines Plugins für ein bestehendes Instant Messaging-System realisiert werden. Dazu werden zunächst die Anforderungen an das System erhoben und mit Vorhandenen Konzepten und Systemen am Markt verglichen. Darauf aufbauend wird ein eigenes Konzept entwickelt und die Umsetzung in der Programmiersprache Java beschrieben. Der Fokus dieser Arbeit liegt dabei auf der Absicherung des Chat-Kanals einer Instant Messaging-Kommunikation, aber es werden geeignete Schnittstellen beschrieben und implementiert, die eine Erweiterung der angewendeten Verfahren für beliebige Datensätze ermöglicht.
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Auf eine bestehende Erhebung der Gesellschaft für Qualität in der Außerklinischen Geburtshilfe QUAG e.V. wurden moderne statistische Verfahren, insbesondere Faktorenanalyse und Mann-Whitney-U-Test angewendet. Es wurden hierzu die von den Hebammen ausgefüllten Perinatalbögen von 17269 Erstgebärenden aus dem Zeitraum 1999 bis 2004 ausgewertet. Der Mann-Whitney-U-Test wurde für die metrischen Variablen "Alter bei Geburt" und Hebammen-Erstkontakt angewendet. Unter anderem konnte gezeigt werden, dass Frauen mit besonderen sozialen Belastungen erst spät den Kontakt zur Hebamme suchen. Die Faktorenanalyse ergab sehr gut bekannte, aber auch neue Zusammenhänge, was auf die Stärke dieses Verfahrens schließen lässt. Eine kurze geburtshilfliche und/oder medizinische Erklärung wurde, sofern möglich, erstellt und recherchiert. Es ist jedoch weitere Erforschung und medizinische Beurteilung der Einzelergebnisse notwendig.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Business continuity planning
(2008)
Unternehmenskrisen lassen die Weltwirtschaft aufhorchen - gerade in jüngster Zeit häufen sich die Nachrichten über Notfälle und folgenschwere Fehlentscheidungen in Organisationen aller Art. Vieles bekommt die Außenwelt aber gar nicht erst mit, wenn die Ausweitung von Störungen noch in letzter Sekunde verhindert werden kann. Und wenn das Ausmaß zu groß wird? Dann droht oft das wirtschaftliche Aus. Business Continuity Planning ist der Vorsorgeprozess, der eine Institution auf den Ausnahmefall vorbereitet und garantiert, dass deren Existenz zu jeder Zeit gesichert ist und alle geschäftskritischen Prozesse auch während einer Krise aufrecht erhalten werden können. Diese Diplomarbeit erleichtert den Einstieg in das Thema Business Continuity Planning und in die erfolgreiche Umsetzung von Notfallmaßnahmen. Aus dem Blickwinkel der IT werden wertvolle Definitionen und Abgrenzungen gegeben und die Problemstellungen und Lösungswege einer individuellen Notfallvorsorge aufgegriffen. Fokussiert wird ein umfassender Überblick über die zentralen Teilbereiche des Planungsprozesses (und ihrer Erfolgskriterien) und ein praktischer Einblick in das Krisenmanagement.
German politicians have identified a need for greater citizen involvement in decision-making than in the past, as confirmed by a recent German parliamentarians study ("DEUPAS"). As in other forms of social interactions, the Internet provides significant potential to serve as the digital interface between citizens and decision-makers: in the recent past, dedicated electronic participation ("e-participation") platforms (e.g. dedicated websites) have been provided by politicians and governments in an attempt to gather citizens" feedback and comment on a particular issue or subject. Some of these have been successful, but a large proportion of them are grossly under-used " often only small numbers of citizens use them. Over the same time period, enthusiasm of Society for social networks has increased and is now commonplace. Many citizens use social networks such as Facebook and Twitter for all kinds of purposes, and in some cases to discuss political issues.
Social networks are therefore obviously attractive to politicians " from local government to federal agencies, politicians have integrated social media into their daily work. However, there is a significant challenge regarding the usefulness of social networks. The problem is the continuous increase in digital information: social networks contain vast amounts of information, and it is impossible for a human to manually filter the relevant information from the irrelevant (so-called "information overload"). Even using the search tools provided by social networks, it is still a huge task for a human to determine meanings and themes from the multitude of search results. New technologies and concepts have been proposed to provide summaries of masses of information through lexical analysis of social media messages, and therefore they promise an easy and quick overview of the information.
This thesis examines the relevance of these analyses" results, for the use in everyday political life, with the emphasis on the social networks Facebook and Twitter as data sources. Here we make use of the WeGov Toolbox and its analysis components that were developed during the EU project WeGov. The assessment has been performed in consultation with actual policy-makers from different levels of German government: policy-makers from the German Federal Parliament, the State Parliament North Rhine-Westphalia, the State Chancellery of the Saarland and the cities of Cologne and Kempten all took part in the study. Our method was to execute the analyses on data collected from Facebook and Twitter, and present the results to the policy-makers, who would then evaluate them using a mixture of qualitative methods.
The responses of the participants have provided us with some useful conclusions:
1) None of the participants believe that e-participation is possible in this way. But participants confirm that "citizen-friendliness" can be supported by this approach.
2) The most likely users for the summarisation tools are those who have experience with social networks, but are not "power users". The reason being is that "power users" already knew the relevant information provided by analysis tools. But without any experiences for social networks it is hard to interpret the analysis results the right way.
3) The evaluation has considered geographical aspects, and related this to e.g. a politician- constituency as a local area of social networks. Comparing the rural to the urban areas, it is shown that the amount of relevant political information in the rural areas is low. While the proportion of publicly available information in urban areas is relatively high, the proportion in the rural areas is much lower.
The findings that result from the engagement with policy-makers will be systematically surveyed and validated within this thesis.
Mit dem Projektpraktikum "MicSim" wurde 2004 der Grundstein für ein auf Java basierendes Mikrosimulationssystem gelegt. Für das gleichnamige Produkt diente UMDBS von Prof. Dr. Thomas Sauerbier, Fachhochschule Giessen-Friedberg als Vorlage, welche eine Modellimplementierung in MISTRAL vorsieht. Da MISTRAL eine veraltete prozedurale Programmiersprache ist und somit nicht mehr dem objektorientierten Zeitgeist entspricht, entschloss sich die Projektgruppe eine gänzlich neue objektorientierte Umgebung zu erstellen. Diese sollte sowohl den Funktionsumfang von UMDBS beinhalten, als auch eine bequeme Möglichkeit bieten, objektorientierte Modelle einer Mikrosimulation in Java zu erstellen. Das Projektpraktikum endete 2005 mit einem lauffähigen objektorientierten Nachfolger von UMDBS. Da jedoch MicSim noch einige Schwachstellen aufwies, wurde dieses System in der Studienarbeit "MicSim - Agentenbasierte Mikrosimulation" von Pascal Berger, Dennis Fuchs, Peter Hassenpflug und Christian Klein 2006 weiterentwickelt und zu dem heutigen "CoMICS" umbenannt. Jedoch konnten nicht alle Probleme der Software beseitigt werden. So blieb das schlecht skalierende Ablaufverhalten einer Simulation und die unzureichende Unterstützung des Benutzers bei syntaktischen Programmierfehlern weiterhin bestehen. Dies führte zu dem Entschluss, ausgehend von CoMICS, die Idee eines java-basierten Mikrosimulationssystems weiter auszubauen. Im Zuge einer Analyse dieses Systems kristallisierten sich sehr schnell einige Punkte heraus, die uns verbesserungswürdig erschienen. Die gravierendste Veränderung stellte hierbei die Umstellung auf eine event-orientierte Mikrosimulation dar. Hierzu mussten die komplette Modellstruktur, Ablauflogik und sogar jegliche Modellierungswerkzeuge neu entwickelt werden. All dies führte dazu, dass CoMICS II von Grund auf neu entwickelt werden musste.
Recently the workflow control as well as compliance analysis of the Enterprise Resource Planning systems are of a high demand. In this direction, this thesis presents the potential of developing a Workflow Management System upon a large Enterprise Resource Planning system by involving business rule extraction, business process discovery, design of the process, integration and compliance analysis of the system. Towards this, usability, limitations and challenges of every applied approach are deeply explained in the case of an existing system named SHD ECORO.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.
Abstract It is not easy to compare one statistic with another, and it is even more difficult if the analysis is based on two surveys that do not share the same issue, have different survey methods, and especially if the sample size of the surveys differ greatly. This paper will use a comparison of official and unofficial statistics, the micro-census and the German Socio-Economic Panel Study (SOEP) to confirm this point. An auxiliary structure for study of fertility behavior of women in Germany is conducted first with the micro-census and then with SOEP data. By that the transferability of a study model of the micro-census to the SOEP is examined. The SOEP provides the possibility to check the validity of the auxiliary structure which gives just an estimation of the current situation regarding the childlessness in Germany. The study model will be run for a second time with the SOEP data, however, this time not with the estimated number of mothers, but with the number actually recorded by the SOEP. Thus the quality of the estimation results can be checked.
In the last years the e-government concentrated on the administrative aspects of administrative modernisation. In the next step the e-discourses will gain in importance as an instrument of the public-friendliness and means of the e-democracy/e-participation. With growing acceptance of such e-discourses, these will fastly reach a complexity, which could not be mastered no more by the participants. Many impressions, which could be won from presence discussions, will be lacking now. Therefore the exposed thesis has the objective of the conception and the prototypical implementation of an instrument (discourse meter), by which the participants, in particular the moderators of the e-discourse, are capable to overlook the e-discourse at any time and by means of it, attain their discourse awareness. Discourse awareness of the present informs about the current action in the e-discourse and discourse awareness of the past about the past action, by which any trends become visible. The focus of the discourse awareness is located in the quantitative view of the action in the e-discourse. From the model of e-discourse, which is developed in this thesis, the questions of discourse awareness are resulting, whose concretion is the basis for the implementation of the discourse meter. The discourse sensors attached to the model of the e-discourse are recording the actions of the e-discourse, showing events of discourse, which are represented by the discourse meter in various forms of visualizations. The concept of discourse meter offers the possibility of discourse awareness relating to the present as monitoring and the discourse awareness relating to the past as query (quantitative analysis) to the moderators of the e-discourse.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
E-Mail-Forensik - IP-Adressen und ihre Zuordnung zu Internet-Teilnehmern und ihren Standorten
(2010)
Wesentliches Element des weltweiten Internets bildet der Adressraum der IP-Adressen, die den am Internet teilnehmenden Geräten ("IP-Hosts") zugewiesen sind. IP-Adressen (der Version 4) bestehen aus vier Zahlen zwischen 0 und 255 und repräsentieren viermal acht Bits, mit welchen insgesamt über vier Milliarden Adressen unterschieden werden können. Die zentrale Organisation IANA vergibt an fünf regionale Adressregistraturen Adressräume, welche sie an lokale Registraturen, Telecomanbieter und Internet-Service-Provider weiter verteilen. Diese Adressverteilung ist relativ stabil. Diese Zuordnung ist öffentlich zugänglich über so genannte whois-Abfragen aus Datenbanken der regionalen Registraturen. Die Internet-Service-Provider (ISP) vergeben IP-Adressen an ihre Nutzer. Die Zuordnung wird teilweise statisch mit langfristiger Bindung vorgenommen und teilweise dynamisch nur für die Dauer einer Datenverbindung. Die dynamische Adressverwaltung erlaubt es Internet-Service-Providern, mehr Nutzer zu bedienen, als ihr Adressraum an verschiedenen IPAdressen zulässt, da die Adressen von Geräten, die aus dem Internet ausscheiden, nicht wie bei der statischen Vergabe frei gehalten werden müssen, sondern an sich neu mit dem ISP verbindende Geräte vergeben werden können. In internen Tabellen verwalten die Internet-Service-Provider die Zuordnung von IP-Adressen zu den konkreten Anschlüssen ihrer Nutzer, außerdem protokollieren sie, welcher Anschluss wann welche IP-Adresse hatte . Diese Daten sind öffentlich nicht zugänglich, sondern müssen bei Bedarf mit gesetzlich geregelten Einschränkungen (Datenschutz) erfragt werden.
The thesis "E-Partizipation Virtual Ressourcen Portal" describes the conception and implementation of the Virtual Resource Centre (VRC), an international resource and knowledge portal for multidisciplinary research and application areas in the domain of eParticipation. The need for such a portal was developed in the context of the European DEMO_net project, the eParticipation network of excellence. The aim of this portal is to improve the spreading of the actual knowledge of the connected researchers and practitioner in the domain of eParticipation. For this, the collaboration and discussion with each other in different distributed projects will be improved and the results of the works will be published and saved. A well structured and an easy to handle portal is necessary therefore, as many connected institutions are not familiar with technological businesses. Further aims of the VRC are avoiding redundant developments to report excellent research facilities for the different subjects and to dynamically list the running projects in selectable categories. The technical base for the portal is a web content management system (WCMS), provided with many increments. To detect a suitable WCMS, the systems Plone, TYPO3 and Xoops are compared by a value benefit analyses. The special requirements for the VCR are fulfilled by the development and integration of increments, which include and provide the administration of publications, the overview of projects and research areas, etc. using an actual Web 2.0 functionality. This thesis is based on two different research methods, where the basic method design research is. Design research describes a compendium of how a portal can be modeled and realized in five phases. Another used method is the hypertext design model, which is used to build a model of the VRC. In the description of the implementation the changes in the WCMS, the user administration and the access control are explained as a guideline. In the conclusion of the thesis, an overview over the challenges and a recommendation for further developments and potential work is shown.
This thesis conducts a text and network analysis of criminological files. The specific focus during the research is the field money laundering. The analysis showed the most important concepts present in the text which were classified in eleven different classes. The relationships of those concepts were analysed using ego networks, key entity identification and clustering. Some of the statements given about money laundering could be validated by the findings of this analysis and their interpretation. Specific concepts like banks and organizations as well as foreign subsidiaries were identified. Aggregating these concepts with the statements in chapter 1.4.3 on the circular process of money laundering it can be stated that different organizations and individuals, present in the criminological files, were placing money through different banks, organizations and investments in the legal financial market. At last this thesis tries to validate the benefits of the used tools for the kind of conducted research process. An estimation on ORA's and Automap's applicability for this kind of research is given in the end.
Im Rahmen dieser Arbeit wird der Einfluss des Wahlszenarios auf die Geheimheit und Öffentlichkeit der Wahl herausgearbeitet. Ein Wahlszenario wird durch seine Wahlform und die verwendete Wahltechnik bestimmt. Bei der Wahl-form kann zwischen einer Präsenz- und einer Fernwahl unterschieden werden. Bei der Wahltechnik zwischen der Papier- und der elektronischen Wahl. Mit der Papier-Präsenzwahl, der Briefwahl (Papier-Fernwahl) und der Internetwahl (elektronische Fernwahl) werden drei prominente Wahlszenarien und ihr Einfluss auf Geheimheit, Privatheit und Öffentlichkeit untersucht.
Moderne Groupware- und Social Software Systeme nehmen nicht nur im privaten Nutzerbereich eine immer stärkere Rolle ein, sondern bergen vor allem für Unternehmen einen noch nicht vollständig erfassten Mehrwert. Erkenntnisse und Erfahrungen aus Praxis und Forschung zeigen, dass Web 2.0 Tools im Unternehmenseinsatz zu einem Mehrwert führen können, wenn sie im richtigen Kontext eingesetzt und in der entsprechenden Kultur eingebettet sind. Sie unterstützen insbesondere bei der Meinungsäußerung, Kollaboration und Selbstorganisation. Vor allem Social Software und Social Networking werden von der Gartner Group, einem der weltweit führenden Marktanalysten von Business Software, im Jahr 2009 unter den zehn für Unternehmen strategisch relevanten Technologien geführt. Trotzdem gibt es gegenwärtig kaum Systeme, die alle erforderlichen Funktionalitäten von Groupware und Social Software in einer Lösung vereinen. Eine der erfolgreichsten Softwaresuiten im Bereich Groupware stellt die Lotus Notes/Domino Lösung von IBM dar. Anhand dieser Softwaresuite wird in der vorliegenden Arbeit gezeigt, wie am Beispiel einer universitären Forschungsgruppe Groupware-Systeme in Kombination mit Social Software in eine Enterprise 2.0 Arbeitsumgebung überführt werden können. Dabei werden "ältere" Groupware Anwendungen, wie E-Mail und Kalenderfunktionen, mit neueren Werkzeugen wie Blogs, Wikis oder Social Bookmarking verknüpft. Das Ergebnis zeigt, dass technische Veränderungen zwar schnell umzusetzen sind, Veränderungen im Kommunikations- und Arbeitsalltag von Menschen allerdings nur langsam erreicht werden. Die Forschungsgruppe für Betriebliche Anwendungssysteme in Koblenz untersucht und evaluiert neue Werkzeuge für die CSCW-Forschung, nutzt intern Groupware zur Arbeitsunterstützung und setzt den ihr übertragenen Lehrauftrag um. Von den an der Lehre beteiligten Parteien, z.B. Studierende und Dozenten, werden die gleiche Flexibilität und das Wissen um moderne Arbeitsformen verlangt, die auch Unternehmen aktuell an ihre Mitarbeiter stellen. Für den Umgang mit modernen Arbeitsformen, Werkzeugen und verschieden Endgeräten bedarf es Erfahrungen und Kompetenzen. Diese Kompetenzen sind sowohl in Bildungseinrichtungen wie auch in Unternehmen über alle Altersschichten aufzubauen. Für den Aufbau und die Schulung solcher Kompetenzen wurde am Standort Koblenz ein Hochschul Competence Center gegründet. Die Notwendigkeit und das Angebot der Schulung bezieht sich dabei nicht nur auf ältere Generationen, sondern auch auf die gerne als "Digital Natives" oder nach 1980 geborenen Generationen, da diese entgegen anders lautender Annahmen nicht automatisch über die geforderten Kompetenzen verfügen. Enterprise 2.0 einzuführen bedarf einer klaren Managemententscheidung. Die Schulung der Kompetenzen sowie die Nutzung von Enterprise 2.0 bedarf der Akzeptanz und somit einer partizipativen Beteiligung.
Ziel der vorliegenden Arbeit ist die Entwicklung von Zukunftsszenarien, anhand derer die Entwicklung der Technik und des Einsatzes elektronischer Signaturen im europäischen eGovernment im Jahr 2020 untersucht werden kann. Mit Hilfe der Ergebnisse im Vergleich zur aktuellen Situation soll ein Forschungsplan entworfen werden, der vorhandene Lücken schließt und die Weiterentwicklung des Themas auf die zukünftigen Veränderungen unserer Gesellschaft vorbereitet.
The aim of this diploma thesis is to analyse the actual business architecture at the administration of the university Koblenz-Landau. Another subject matter of the article focuses on the existing application architecture. This architecture is necessary to support the employees work. The Enterprise Architecture will be described by models. They are an important instrument for the exchange of information between different stakeholders. Actual research projects from different universities are represented at the beginning of this elaboration. Subsequent to this, important enterprise architecture frameworks and methods for archiving the tasks are introduced. The concept for the analysis is represented at the outset of the empirical part. After that, a description of the as-is architecture follows. The actual state is modelled by process maps, planning schemes, data flow graphics and a process model. In the next step, an evaluation and identification of weak points is done. Different recommendations to improve the use of information technology at the administration are presented at the end of this degree dissertation. An existing cross-functional process will be analysed, modelled and evaluated. It- about the registration and authorization of projects supported by third-party funds. Finally, a prototype is introduced. The advantages and functionalities of a new system can be shown with this first model. Notices about the next steps, a conclusion and an outlook conclude the work.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
Unkontrolliert gewachsene Software-Architekturen zeichnen sich i.d.R. durch fehlende oder schlecht nachvollziehbare Strukturen aus. Hierfür können als Gründe beispielsweise mangelhafte Definitionen oder ein langsames Erodieren sein. Dies ist auch unter dem Begriff "Big Ball of Mud" bekannt. Langfristig erhöhen solche architekturellen Mängel nicht nur die Entwicklungskosten, sondern können letztendlich auch Veränderungen vollständig verhindern.
Die Software-Architektur benötigt somit eine kontinuierliche Weiterentwicklung, um solchen Effekten entgegen wirken zu können. Eine gute Software-Architektur unterstützt die Software-Entwicklung und erhöht die Produktivität. Auf der Ebene von Quellcode existieren bereits etablierte Vorgehensweisen zur kontrollierten Verbesserung der Qualität. Im Gegensatz hierzu existieren für Verbesserungen einer Software-Architektur jedoch keine allgemeingültigen Vorgehensweisen, welche unabhängig vom Anwendungsfall angewandt werden können. An diesem Punkt setzt die vorliegende Arbeit an.
Bisherige Arbeiten beschäftigen sich einerseits nur mit Teilpunkten des Problems. Anderseits existieren zwar bereits Vorgehensweisen zum Treffen von Architekturentscheidungen, jedoch agieren diese auf einer stark abstrakten Ebene ohne praktische Beispiele. Diese Arbeit stellt eine leichtgewichtige Vorgehensweise zum gezielten Verbessern einer Software-Architektur vor. Die Vorgehensweise basiert auf einem generischen Problemlösungsprozess. Auf dieser Basis ist ein Prozess zum Lösen von Problemen einer Software-Architektur entwickelt worden. Im Fokus der Arbeit stehen zur Eingrenzung des Umfanges architektonische Probleme aufgrund geforderter Variabilität sowie externer Abhängigkeiten.
Die wissenschaftliche Methodik, welcher der Arbeit zugrunde liegt, agiert im Rahmen der Design Science Research (DSR). Über mehrere Iterationen hinweg wurde eine Vorgehensweise entwickelt, welche sich an Softwareentwickler mit zwei bis drei Jahren Erfahrung und Kenntnissen über Grundlage der Softwareentwicklung und Software-Architektur richtet. Fünf Schritte inkl. Verweise auf aussagekräftige Literatur leiten Anwender anschließend durch den Prozess zur gezielten Verbesserung einer Software-Architektur.
Zum Zeitpunkt der Erstellung der Diplomarbeit wird in der Forschungsgruppe "IT-Risk-Management" von Prof. Dr. Rüdiger Grimm an der Universität Koblenz-Landau eine neue Methode zur Unterstützung der Einhaltung des Urheberrechts entwickelt. Der als Usage Rights Management (URM) bezeichnete Ansatz soll Benutzer über ihre Nutzungsrechte an den, auf dem eigenen Rechner vorhandenen, digitalen Mediendateien informieren. Ein weiterer Bestandteil des URMs ist die Unterstützung des Nutzers mit den Dateien rechtskonform umzugehen. Das Ziel der vorliegenden Diplomarbeit ist es, ein System zum Datenaustausch zu entwerfen und prototypisch umzusetzen. Dieses System soll den Benutzern die Möglichkeit geben, sowohl unter URM stehende digitale Mediendateien von anderen Personen einsehen und downloaden zu können als auch eigene URM-Dateien anderen Benutzern zur Verfügung stellen zu können. Diese Anforderungen sollen mittels eines lizenzbewussten P2P-Client umgesetzt werden.
Social Network of Business Objects (SoNBO) is a concept for aggregating information distributed in he-terogeneous system landscapes and making it available via a single user interface. The central idea is to understand company information as a network (graph). There is already a SoNBO-Explorer which integrates the information of a customer relationship management system (CRM system). The challenge in configuring such an application is to identify the corporate network and thus find out how the stored data is linked within the company. A tool that can visualize the corporate network is helpful for this. In this thesis a selfdeveloped tool (SoNBO-Graph-App) is presented as a prototype, which realizes this visualization. With this application the configuration of the network in the SoNBO Explorer consisting of the merged data can be supported by carrying out that configuration on a graphical level. The prototype is connected to two different databases of a Customer Relationship Management (CRM) system and allows the aggregation of these data so that it is displayed as a graph in an overview. This gives the user a better insight and understanding of the relationship between the different data. This work is part of the longterm research project SoNBO, whose goal is a concept for the integration of information from different business application systems.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
Diese Diplomarbeit analysiert die Voraussetzungen für eine Simulation mit Normen, schlägt einen Coderahmen vor und stellt ein Modellierungs- und Codegenerierungs-Plugin für Eclipse, das auf einem Metamodell für Multi-Agenten-Simulationen basiert, zur Verfügung. Mit Hilfe des Plugins werden zwei Beispiele, die Normen aus verschiedenen Blickwinkeln betrachten, implementiert und diskutiert. Das erste ist das Kirk-Coleman-Modell, welches sich mit dem Verhalten von Menschen in einer 3-Personen-Gruppe beschäftigt. Das zweite Modell beinhaltet den fördernden Effekt von Sanktionierung auf Kooperation. Abschließend werden die erarbeiteten Lösungsansätze und Alternativen diskutiert und Vorschläge für das EU-Projekt "Emergence in the Loop" (EMIL) abgeleitet.
Bei dem für dieses Schutzprofil (engl. "Protection Profile" im Folgenden PP genannt) herangezogenen Evaluationsgegenstand (im Folgenden EVG genannt) handelt es sich um einen Router, der einen Schutz gegen Online-Überwachung bietet. Der EVG-Typ ist hierbei ein handelsüblicher Internet-Router, der in Privathaushalten und kleineren Firmen eingesetzt wird. Der EVG umfasst den gesamten Router, so dass sowohl die Hardwarekomponenten als auch die Softwarekomponenten betrachtet werden. Es ist dabei irrelevant, ob es ein Modell mit integriertem Breitband-Modem ist oder ob dieses separat angeschlossen ist.
Abstract For a significant length of time, computer simulation programs have been the preferred tools of sociologists to analyse " thus confirm or refute " sociological theories, scenarios, presumptions and assumptions. Many different simulation platforms for various domains exist. The EmIL project aims to create a new simulation platform specifically to analyse norm emergence. This platform is divided into sections, thereby allowing the analysis of individual norm emergence: this is not currently possible, thus EmIL-S may represent a significant improvement over current simulation platforms. This diploma thesis describes the concepts behind the project and provides a prototype for the simulation program EmIL-S. The creation of the prototype and the underlying development process are described in detail. The experience gained during this process is analysed and described. In the course of this analysis, the malfunctions and errors within EmIL-S are explained; the solutions to these malfunctions and errors are noted, along with other proposed improvements. This diploma thesis can also be used as a helpful manual to build simulations within the simulation platform.
Seit dem 01. November 2005 ist in Deutschland der neue Reisepass erhältlich. Ein wesentliches Merkmal dieses neuen Passes ist die Einbindung von biometrischen Merkmalen, um den Besitzer des Dokumentes zu verifizieren. In anderen Bereichen, wie zum Beispiel der Abwicklung von Vielfliegern an einem Flughafen, halten ähnliche biometrisch gestützte Verfahren Einzug. Weitere Anwendungsmöglichkeiten wären die Absicherung des eigenen Arbeitsplatzes gegen den Zugriff unbefugter Personen, die Verfolgung von Straftätern oder die Verifikation eines Benutzers innerhalb des Internets. Der Wunsch nach Sicherheit in vielen Sektoren steigt zunehmend. Ein Weg, diese Sicherheit zu bieten, ergibt sich aus den Eigenschaften, die einen Menschen selbst als Unikat auszeichnen. Das Ziel dieser Studienarbeit besteht darin, sich das persönliche Verhalten eines Menschen im Umgang mit einer Tastatur zunutze zu machen, um eine Aussage treffen zu können, inwiefern eine Benutzereingabe mit einer vorher generierten Vergleichseingabe übereinstimmt. Der Schwerpunkt liegt dabei in der Erstellung eines Programms, welches in der Lage ist, verschiedene Parameter während einer Benutzereingabe zu sammeln, auszuwerten und zu sichern, um den entsprechenden Benutzer zu jeder beliebigen Zeit wieder anhand der abgespeicherten Informationen erkennen zu können. Dabei wird darauf geachtet, dass die entstehende Software auf möglichst vielen bestehenden Systemen ohne größere Probleme angewendet werden kann.
Issue of a catalog of criteria for the guarantee of the technical security of e-Commerce-web pages
(2007)
Das Ziel dieser Diplomarbeit ist es einen Kriterienkatalog zu erarbeiten, anhand dessen die technische Sicherheit von E-Commerce-Webseiten automatisiert überprüft werden kann. Dazu wird wie folgt vorgegangen. Nach einer Einleitung, die die Ausgangslage und die Motivation dieser Diplomarbeit zeigt, wird eine Aufbauanalyse von E-Commerce Webangeboten durchgeführt. Es werden gezielt die technischen Bausteine betrachtet, die für den Aufbau benötigt werden. Anschließend werden technische Schwachstellen (Fehlerquellen) von E-Commerce Webangeboten dargelegt. Der Schwerpunkt liegt dabei auf Programmierfehlern, Konfigurationsfehlern, Konzeptionsfehlern und Fehlern resultierend aus menschlichem Handeln. Parallel zu den Schwachstellen werden die jeweiligen Bedrohungspotentiale für einen E-Commerce Anbieter erörtert. Hierauf folgt eine kurze Vorstellung der generellen Risikopotentiale der verschiedenen Parteien, die bei einer E-Commerce Transaktion beteiligt sind. In dem darauf folgenden Schritt werden etablierte Kriterienkataloge vorgestellt. Diese werden kritisch bewertet, inwieweit sie befähigt sind zur Erstellung des angestrebten Kriterienkataloges beizutragen. Es werden klassische Kataloge wie das Orange Book, Common Criteria aber auch aktuelle Kataloge wie der BSI Grundschutzkatalog begutachtet. In dem nächsten Schritt werden die eigentlichen Kriterien in Listen einsortiert. Es wird differenziert analysiert "was" überprüft werden kann und "was" nicht. Daraufhin werden die Kriterien anhand von Schwachstellen in ein Ebenenmodell unterteilt. Das Ebenenmodell orientiert sich an Vorgaben des BSI und besteht aus der Protokollebene, der Dienstebene und der Anwendungsebene. Im Anschluss daran findet eine Gewichtung aller Kriterien anhand ihrer Automatisierbarkeit, ihrem Schadenspotenial und ihrer Verbreitung statt. Im vorletzten Schritt werden Lösungen vorgestellt, auf welche Weise der Kriterienkatalog automatisiert werden kann. Um einen Marktüberblick zu bieten werden verschiedene Web Vulnerability Scanner von kommerziellen Anbietern in Hinblick auf ihren Funktionsumfang, ihre Preisgestaltung und ihrer Bedienung verglichen. Der letzte Schritt dieser Diplomarbeit behandelt im Gegensatz zu den vorhergehenden Kapiteln weniger die theoretische Ebene. Er bietet stattdessen Anhand von Praxisszenarien dem Leser die Möglichkeit die Auswirkungen von Schwachstellen und Attacken auf reale Anwendungen nach zu vollziehen.
Die vorliegende Arbeit beschäftigt sich mit den Nutzenpotentialen des GeoPortal.rlp. Hierzu werden zwei empirische Studien erhoben. Die erste Studie ist eine Nutzerumfrage bezüglich des Portals. Die zweite Studie besteht aus Experteninterviews um potentielle Kooperationspartner zu identifizieren. Aus den Ergebnissen der beiden Studien werden Handlungsempfehlungen abgeleitet.
In dieser Arbeit geht es darum, einen Einblick in das Thema Wireless LAN zu vermitteln. Es werden zunächst einmal die gängigsten Standards und weitere wichtige Aspekte aus diesem Bereich vorgestellt. Das Hauptaugenmerk dieser Arbeit liegt jedoch darauf, wie die Kommunikation in Funknetzwerken sicherer gestaltet werden kann. Im Zuge dessen werden einige Mechanismen vorgestellt, mit denen es möglich ist, die Kommunikation zu verschlüsseln oder nur bestimmte Teilnehmer an der Kommunikation teilnehmen zu lassen. Mit diesen Mechanismen ist es dann möglich eine hohes Maß an Sicherheit in Funknetzwerken zu erreichen. Abschließend wird in einem Tutorial beschrieben, wie die zuvor vorgestellten Mechanismen eingerichtet und angewendet werden können.
Identifikation und Analyse von Konfigurationen zwischenbetrieblicher Integration in der Möbelbranche
(2017)
In der Möbelbranche in Deutschland existieren seit mehreren Jahren branchenweite Bemühungen, zwischenbetriebliche Kooperationen durch organisatorische und technische Lösungen (z.B. Standardisierung von Austauschformaten) zu unterstützen. In einigen Branchensegmenten (vor allem Küche und Polster) konnten sich Infrastrukturen zur Integration etablieren, die von vielen Branchenteilnehmern akzeptiert und genutzt werden. Trotz dieser Entwicklung sind in den genannten Branchensegmenten überraschende Phänomene in jüngerer Vergangenheit zu beobachten: Mängel in der Prozessintegration zwischen Branchenakteuren, Unterschiede im Standardisierungsfortschritt zwischen den Branchensegmenten und die Entstehung unterschiedlicher Infrastrukturen zur zwischenbetrieblichen Integration. Bei näherer Betrachtung der beobachteten Phänomene offenbart sich ein hoch-komplexes Zusammenspiel der in der Möbelbranche agierenden Akteure auf drei unterschiedlichen Ebenen (institutionell, organisatorisch und technisch). Um die verantwortlichen Zusammenhänge zu verstehen, ist eine ganzheitliche Betrachtung relevanter Faktoren erforderlich. Dafür gibt es bislang nur wenige überzeugende Konzepte. Die Konfigurationsanalyse nach Lyytinen und Damsgaard betrachtet Unternehmensnetzwerke als Konfigurationen zwischenbetrieblicher Integration, die einem stabilen Muster von Kooperationsformen entsprechen. Sie ist insbesondere dafür geeignet, Unternehmensnetzwerke auf Branchenebene zu untersuchen. In der vorliegenden Arbeit wird die Konfigurationsanalyse mittels eines speziell dafür entwickelten bzw. angepassten Forschungsdesigns zum ersten Mal operationalisiert. Dazu wurden in 21 Interviews mit 19 Organisationen Daten zu Konfigurationen zwischenbetrieblicher Integration in zwei Branchensegmenten der Möbelbranche (Küche und Polster) in Deutschland erhoben, analysiert und Erklärungsansätze für die drei oben genannten Phänomene entwickelt. Die Ergebnisse zeigen, dass komplexe Konstellationen von Brancheneigenschaften die existierenden Konfigurationen begründen. Insgesamt wurden vier Konfigurationstypen (Mittler, Branche, Dyade und Triade) identifiziert, die in 17 konkreten Konfigurationen zum Einsatz kommen (Mittler (4-mal), Branche (5-mal), Dyade (6-mal) und Triade (2-mal)). Die Ursachen für die beobachteten Phänomene sind vielfältig. Insbesondere sind bestimmte branchenbezogene Charakteristika (u.a. Produkteigenschaften),der Wettbewerb zwischen Akteursklassen und zuletzt die wirtschaftliche Überlegenheit des Handels gegenüber den Herstellern ausschlaggebend. Der Standardisierungsfortschritt in den Branchensegmenten und die zugrunde liegenden Infrastrukturen sind vor allem von dem betriebswirtschaftlichen Nutzenpotenzial abhängig, das ihnen jeweils zugeschrieben wird. Die Prozessintegration hingegen benötigt eine zentral steuernde Instanz zur erfolgreichen IOIS-Diffusion.
In the last few years the Internet of things has gained increased attention from authors as well as companies due to its innovation potential. The rising interest in the Internet of Things has also affected the logistics, which currently suffers from the effects of the globalization and the ever-increasing competitive pressure. Thus, there are efforts to discover how the logistics can profit from the use of IoT concepts, ideas and technologies to help it overcome its challenges. This research study focuses on the identification of these efforts and the corresponding research for logistics processes. For that purpose the researcher explored current literature referring to this topic. The final outcome of this paper is a structured overview of the identified IoT use-cases, their corresponding technologies and devices and finally their affected stakeholders. Whether the expectations regarding the IoT implementation in logistics processes are met, how companies can profit from these use-cases and which problems potentially arise by using IoT devices and technologies in logistics are answered at the end of this paper.
Informatik hautnah erleben
(2010)
In vielen Köpfen - sowohl bei Erwachsenen wie auch bei Schülern - geistert der Glaube, dass Informatik die Wissenschaft der "Computerlehre" ist. Schon der berühmte Satz "In der Informatik geht es genauso wenig um Computer wie in der Astronomie um Teleskope", der dem Informatiker Edsger W. Dijkstra (1930 - 2002) zugeschrieben wird, drückt historisch schon früh den Gedanken aus, dass die Informatik den Computer nur als ein Hilfsmittel und Medium nutzt, genauso wie die Mathematik den Taschenrechner. Die Fehlvorstellung, die leider auch häufig in den Schulen vermittelt wird, zeigt, dass hier Aufklärung nötig ist.
The impact of innovation in order to secure a company- existence is increasing. Especially in the field of information and communication systems, modified conditions, reduced product life cycles (in some markets e.g. in the software market down to a few months), and increased competition force many companies to adapt their innovation speed. Long-term profit will just be obtained by those companies that will manage to consolidate or further to enlarge their competitive position with technological innovation. The increasing relevance of new developments requires a separate treatment of technological innovations and demands for a technology and innovation management. Not every innovation is thereby a result of a single, spontaneous idea. Many innovations evolve from the integration or combination of already existing technologies. Especially in markets with insignificant growing rates, this kind of innovation is quite important. The purpose of this thesis is the identification of existing deficiencies within established recommendations for a strategic technology and innovation management concerning technological integration. Based on the technological innovation, a possibility for the exposure to the developed innovations will be formulated. Finally, this thesis provides an own approach about this kind of innovation that will be examined.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Diese Arbeit kombiniert zwei Themengebiete, welche in unserer Gesellschaft und Wirtschaft immer präsenter und aktueller werden. Das erste Thema beinhaltet die Nachhaltigkeit, welche sich in dieser Arbeit in die drei Säulen Ökologie, Ökonomie und Soziales untergliedert. Die erste Säule, Ökologie, beschäftigt sich hauptsächlich mit der Bekämpfung von Umweltproblemen und dem nachhaltigen Erhalt der Natur. Der Bereich Ökonomie befasst sich damit, die Ressourcen nachhaltig zu nutzen, um ein langfristiges Erzielen von wirtschaftlichen Erträgen zu gewährleisten. Die letzte Säule hat den Zweck die Soziale Nachhaltigkeit zu fördern, indem der gesellschaftliche Zusammenhalt gesichert und die Chance auf Arbeit ermöglicht wird, um gleichzeitig für gute Arbeitsbedingungen zu sorgen. Alle drei Säulen sind daher auch für Unternehmen relevant und sollten von diesen stetig beachtet werden, um eine sogenannte unternehmerische Nachhaltigkeit umzusetzen. Zur Unterstützung dieser Umsetzung, soll hier das zweite Thema hinzugezogen werden, das sogenannte Internet of Things. Das Internet of Things gewinnt, wie auch das Thema Nachhaltigkeit, zunehmend an Bedeutung und bietet viele Vorteile zur Unterstützung nachhaltiger Unternehmen. Dabei sollen immer mehr Geräte zu intelligenten Geräten gewandelt werden um eine Integration in ein Informationsnetzwerk zu gewährleisten. Dort können gesammelte Daten sinnvoll analysiert und genutzt werden, wodurch viele Bereiche effizienter gestaltet und viele Handlungen erleichtert werden können.
Aufbauend auf diesen zwei Themengebiete werden, im weiteren Verlauf dieser Arbeit, IoT- Technologien vorgestellt, die der Unterstützung, in den Bereichen Ökologie, Ökonomie und Soziales, von Unternehmen dienen. Zu den aufgezeigten Technologien werden anschließend Beispiele präsentiert und, wenn vorhanden, auch die jeweiligen Anbieter.
Da eine Nutzung von IoT-Technologien nicht nur von Vorteil ist, sondern auch Herausforderungen mit sich bringt, werden diese abschließend aufgezeigt. Diesen Herausforderungen gilt es sich seitens der Unternehmen, der Gesellschaft und auch der Politik zu stellen, um eine effiziente Nutzung zu ermöglichen.