Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (35)
- Bachelorarbeit (31)
- Diplomarbeit (27)
- Masterarbeit (27)
- Dissertation (13)
- Studienarbeit (12)
- Buch (Monographie) (1)
Volltext vorhanden
- ja (146) (entfernen)
Schlagworte
- Internet of Things (4)
- Logistik (4)
- computer clusters (4)
- Datenaustausch (3)
- Datenschutz (3)
- E-Partizipation (3)
- Evaluation (3)
- Instant Messaging (3)
- parallel algorithms (3)
- Beschaffung (2)
Institut
- Institut für Wirtschafts- und Verwaltungsinformatik (146) (entfernen)
The estimation of various social objects is necessary in different fields of social life, science, education, etc. This estimation is usually used for forecasting, for evaluating of different properties and for other goals in complex man-machine systems. At present this estimation is possible by means of computer and mathematical simulation methods which is connected with significant difficulties, such as: - time-distributed process of receiving information about the object; - determination of a corresponding mathematical device and structure identification of the mathematical model; - approximation of the mathematical model to real data, generalization and parametric identification of the mathematical model; - identification of the structure of the links of the real social object. The solution of these problems is impossible without a special intellectual information system which combines different processes and allows predicting the behaviour of such an object. However, most existing information systems lead to the solution of only one special problem. From this point of view the development of a more general technology of designing such systems is very important. The technology of intellectual information system development for estimation and forecasting the professional ability of respondents in the sphere of education can be a concrete example of such a technology. Job orientation is necessary and topical in present economic conditions. It helps tornsolve the problem of expediency of investments to a certain sphere of education. Scientifically validated combined diagnostic methods of job orientation are necessary to carry out professional selection in higher education establishments. The requirements of a modern society are growing, with the earlier developed techniques being unable to correspond to them sufficiently. All these techniques lack an opportunity to account all necessary professional and personal characteristics. Therefore, it is necessary to use a system of various tests. Thus, the development of new methods of job orientation for entrants is necessary. The information model of the process of job orientation is necessary for this purpose. Therefore, it would be desirable to have an information system capable of giving recommendations concerning the choice of a trade on the basis of complex personal characteristics of entrants.
In den letzten Jahren konzentrierte sich das E-Government auf die administrativen Aspekte der Verwaltungsmodernisierung. Im nächsten Schritt werden die E-Diskurse als Instrument der Bürgernähe und Mittel der E-Demokratie/E-Partizipation an Bedeutung gewinnen. Mit zunehmender Akzeptanz solcher E-Diskurse werden diese schnell eine Komplexität erreichen, die von den Teilnehmern nicht mehr zu bewältigen ist. Das Problem liegt in der eingeschränkten Möglichkeit, einen in Raum und Zeit verteilten Diskurs zu verfolgen und sich ein Bild von ihm zu machen. Viele Eindrücke, die sich aus Präsenzdiskussionen gewinnen lassen, fehlen. Deswegen hat die vorliegende Arbeit die Zielsetzung der Konzeption und der prototypischen Implementierung eines Instrumentariums (Diskursmeter), womit sich die Teilnehmer, insbesondere die Moderatoren, des E-Diskurses jederzeit einen Überblick über den E-Diskurs schaffen können und so zu ihrem Diskursverständnis (Discourse Awareness) zu gelangen. Über das aktuelle Geschehen im E-Diskurs informiert die gegenwartsorientierte und über das vergangene Geschehen die vergangenheitsorientierte Discourse Awareness, über die etwaige Trends sichtbar sind. Der Fokus der Discourse Awareness liegt in der quantitativen Betrachtung des Geschehens im E-Diskurs. Aus dem in dieser Arbeit entwickelten Modell des E-Diskurses resultieren die Fragestellungen zur Discourse Awareness, deren Konkretisierung Grundlage für die Implementierung des Diskursmeters ist. Die an das Modell des E-Diskurses angebrachten Diskurssensoren zeichnen das Geschehen im E-Diskurs auf, die zu Diskursereignissen führen, die das Diskursmeter in unterschiedlichen Visualisierungsformen präsentiert. Den Moderatoren des E-Diskurses bietet das Diskursmeter die gegenwartsorientierte Discourse Awareness als Monitoring und die vergangenheitsorientierte Discourse Awareness als Abfrage (quantitative Analyse) an.
Remote Working Study 2022
(2022)
The Remote Working Study 2022 is focused on the transition to work from home (WFH) triggered by the stay at home directives of 2020. These directives required employees to work in their private premises wherever possible to reduce the transmission of the coronavirus. The study, conducted by the Center for Enterprise Information Research (CEIR) at the University of Koblenz from December 2021 to January 2022, explores the transition to remote working.
The objective of the survey is to collect baseline information about organisations’ remote work experiences during and immediately following the COVID-19 lockdowns. The survey was completed by the key persons responsible for the implementation and/or management of the digital workplace in 19 German and Swiss organisations.
The data presented in this report was collected from member organisations of the IndustryConnect initiative. IndustryConnect is a university-industry research programme that is coordinated by researchers from the University of Koblenz. It focuses on research in the areas of the digital workplace and enterprise collaboration technologies, and facilitates the generation of new research insights and the exchange of experiences among user companies.
Das Internet der Dinge (IoT) ist ein Konzept, bestehend aus vernetzten physischen Objekten, welche in die virtuelle Welt integriert werden um aktive Teilnehmer von Geschäfts- und Alltagsprozessen zu werden (Uckelmann, Harrison and Michahelles, 2011; Shrouf, Ordieres and Miragliotta, 2014). Es wird erwartet, dass dieses Konzept einen großen Einfluss auf Unternehmen haben wird (Council, Nic and Intelligence, 2008). Geschäftsmodelle kleiner und mittelständischer Unternehmen (KMU) sind bedroht, sollten sie den sich abzeichnenden Trend nutzen (Sommer, 2015). Daher ist das Ziel dieser Arbeit, eine exemplarische Implementierung von vernetzten Geräten in einem kleinen Unternehmen um seine Vorteile darzustellen.
Diese Arbeit verwendet Design Science Research (DSR) um einen Prototyp zu entwickeln, der auf dem Anwendungsfall einer Holzwerkstatt aufbaut. Der Prototyp besteht aus einem physischen Sensor und einer Webapplikation, welche von dem kleinen Unternehmen zur Verbesserung seiner Prozesse genutzt werden kann. Die Arbeit dokumentiert den iterativen Entwicklungsprozess der Prototypen von Grund auf zu nutzbarer Hard- und Software.
Der Hauptbeitrag dieser Arbeit ist die beispielhafte Anwendung und Nutzung von IoT in einem kleinen Unternehmen.
Seit Beginn des World Wide Web hat sich die Erzeugung und Verteilung digitaler Güter (digital assets) entschieden verändert. Zur Erzeugung, Bearbeitung, Verteilung und Konsumierung bedarf es heute nicht mehr spezieller physischer Gerätschaften. Dadurch hat sich die Geschwindigkeit, in der Medien generiert und transportiert werden, enorm gesteigert. Auch die Möglichkeiten der Kooperation waren dadurch einem Wandel unterlegen bzw. wurden mancherorts erst möglich gemacht.
Die Nutzung des Internets ermöglichte zwar die Loslösung digitaler Güter von ihren physischen Trägermedien, die Bestimmungen des Urheberrechts gelten jedoch weiterhin. Dies führt gerade bei juristisch weniger erfahrenen Nutzern zu Unsicherheit darüber, wie ein konkretes digitales Gut genutzt werden darf. Andererseits wird von vielen Nutzern das gewohnte Tauschen von Medien auch auf das digitale Umfeld übertragen. Die Urheberrechtsverletzungen, die zuvor im privaten Umfeld im kleinen Rahmen stattfanden, geschehen nun global und für alle sichtbar. Da diese Form des Tausches das primäre Geschäftsmodell der Verwerter gefährdet, wird versucht, die Nutzung digitaler Güter einzuschränken bzw. für nicht berechtigte Nutzer zu unterbinden. Dies geschah und geschieht unter anderem mit Verfahren der digitalen Rechte-Verwaltung (Digital Rights Management - DRM).
Diese Verfahren sind unter Nutzern bisweilen umstritten oder werden sogar offen abgelehnt, da sie die Nutzung digitaler Güter im Vergleich zum physischen Pendant erschweren können. Zudem erwiesen sich viele dieser Verfahren als nicht sicher, so dass die verwendeten Verschlüsselungsverfahren gebrochen wurden. Mit einer "Nutzungsrechte-Verwaltung" (Usage Rights Management - URM) soll DRM im Kernprinzip zwar erhalten bleiben. Die praktische Umsetzung soll aber in eine andere Richtung vorstoßen. Der Nutzer bekommt die volle Kontrolle über die digitalen Güter (ohne die restriktiven Maßnahmen klassischer DRM-Umsetzungen), aber auch wieder die volle Verantwortung. Unterstützt wird er dabei von Software, die ihn über die rechtlichen Möglichkeiten informiert und auf Wunsch des Nutzers auch software-technische Schranken in der Benutzung setzt, ähnlich der Rechtedurchsetzung (Enforcement) bei klassischen DRM-Systemen.
URM nutzt dabei die offene Rechtedefinitionssprache ODRL. Die vorliegende Studienarbeit ist Teil des URM-Projektes der Forschungsgruppe IT-Risk-Management, welches wiederum Teil des SOAVIWA-Projektes ist. Ziel der Studienarbeit ist es, eine Java-Klasse zu entwickeln, mit der in ODRL verfasste Lizenzen als Java-Objekte abgebildet werden. Weitere zu entwickelnde Komponenten sollen diese Objekte verwalten und das Modifizieren und Erzeugen neuer Objekte zulassen. Alle Komponenten sollen Bestandteil des bereits anfänglich implementierten Toolkit für URM (TURM) sein.
Diese Arbeit beschreibt den Entwurf und die Implementierung eines Software-Routers für eine Policy-basierte Internetregulierung. Die Grundlage bildet die von Kasten und Scherp beschriebene Ontologie InFO. InFO dient der System-unabhängigen Beschreibung von Regulierungsmaßnahmen. Zudem ermöglicht InFO eine transparente Regulierung durch Verknüpfung der Regulierungsmaßnahmen mit Hintergrundinformationen. Die InFO-Erweiterung RFCO erweitert die Ontologie um Router-spezifische Entitäten. Es wird ein Software-Router entwickelt, der die RFCO auf IP-Ebene umsetzt. Die Regulierung wird transparent gestaltet, indem betroffene Nutzer vom Router über Regulierungsmaßnahmen informiert werden. Die Router-Implementierung wird exemplarisch in einer virtuellen Netzwerkumgebung getestet.
To construct a business process model manually is a highly complex and error-prone task which takes a lot of time and deep insights into the organizational structure, its operations and business rules. To improve the output of business analysts dealing with this process, different techniques have been introduced by researchers to support them during construction with helpful recommendations. These supporting recommendation systems vary in their way of what to recommend in the first place as well as their calculations taking place under the hood to recommend the most fitting element to the user. After a broad introduction into the field of business process modeling and its basic recommendation structures, this work will take a closer look at diverse proposals and descriptions published in current literature regarding implementation strategies to effectively and efficiently assist modelers during their business process model creation. A critical analysis of presentations in the selected literature will point out strengths and weaknesses of their approaches, studies and descriptions of those. As a result, the final concept matrix in this work will give a precise and helpful overview about the key features and recommendation methods used and implemented in previous research studies to pinpoint an entry into future works without the downsides already spotted by fellow researchers.
Politiker wünschen die Nähe zu den Bürgern und damit die Nähe der Bürger zu ihnen. Diese zunächst wie ein Gemeinplatz anmutende These wird bestätigt durch die im Jahre 2010 erstellte Deutsche Parlamentarier Studie (DEUPAS). Die Studie macht deutlich, dass mit der Bürgernähe der Wunsch nach verstärkter Einbindung der Bürger in politische Entscheidungsprozesse einhergeht. Wie auch in anderen Bereichen sozialer Interaktionen zeigt sich das Internet in diesem Zusammenhang als mögliche Schnittstelle zwischen Bürgern und Entscheidern. So stellt auch die Politik unter dem Begriff E-Partizipation digitale Beteiligungsmöglichkeiten bereit, in der Absicht, Reaktionen und Kommentare der Bürger zu besonderen Angelegenheiten oder Themen zu sammeln. Auch wenn diese Angebote bisweilen erfolgreiche Konzepte beinhalten, werden die meisten nur von einer geringen Anzahl potenzieller Adressaten genutzt. Gleichzeitig steigt abseits dieser strukturierten und problemzentrierten Portale die Begeisterung der Gesellschaft für die Nutzung sozialer Netzwerke, die somit Eingang in den Alltag gefunden haben. Hier ist eine hohe Aktivität auf allen mehr oder minder relevanten Gebieten zu beobachten, unter anderem auch in der Diskussion politischer Themen. Insofern sind soziale Netzwerke für Politiker wichtig und attraktiv, und zwar auf allen politischen Ebenen, wo die sozialen Netzwerke inzwischen in die alltägliche Arbeit integriert sind.
Problematisch ist jedoch der kontinuierliche Anstieg digitaler "Informationsschnipsel" (englisch: information overload). Eine manuelle Filterung relevanter aus der Vielzahl irrelevanter Beiträge erscheint nahezu unmöglich. Folglich werden neue Techniken und Konzepte (Analyse-Software) zur Sammlung und Analyse der Informationsflut präsentiert. Sie versprechen einen leichten und schnellen Überblick, um die relevanten Informationen zu extrahieren. Insofern ist es gerade für die Politik von hoher Dringlichkeit, nach Nutzbarkeit und Nützlichkeit solcher Instrumente zu fragen.
Die vorliegende Arbeit untersucht die Relevanz von Analysesoftware-Ergebnissen für die Verwendung im politischen Alltag. Der Schwerpunkt liegt auf den sozialen Netzwerken Facebook und Twitter als Datenlieferanten. Die Bewertung erfolgt in Kooperation mit und durch politische Entscheider aus dem Deutschen Bundestag, dem Landtag von Nordrhein-Westfalen, der Staatskanzlei des Saarlandes sowie der Städte Köln (Abteilung E-Government) und Kempten (Pressestelle der Stadt Kempten, Allgäu, im Büro des Oberbürgermeisters).
In der Hauptuntersuchung wird für jeden Teilnehmer ein individueller Analysereport erstellt, der mit einem Methodenmix aus qualitativen Verfahren ausgewertet wird. Die Analysedaten werden mit der WeGov-Toolbox, eine Entwicklung des EU-Projektes WeGov und den darin enthaltenen Analysekomponenten erzeugt. Der Fokus liegt dabei auf der Auswertung des Wahlkreises, des lokalen Bereiches sozialer Netzwerke. Im Rahmen dieser Arbeit wird nicht nur der Relevanz von Analysedaten nachgegangen, sondern es wird auch untersucht, ob Bürgernähe oder sogar Bürgerbeteiligung mit den aus der Analysesoftware gewonnenen Ergebnissen und den daraus resultierenden Rückschlüssen und möglicherweise Handlungen positiv vorangetrieben werden kann.
Die Antworten der Teilnehmer führen zu wesentlichen Schlussfolgerungen:
1) Keiner der Teilnehmer geht davon aus, dass Bürgerbeteiligung über diesen Weg gelingt. Anders fällt die Bewertung in Bezug auf eine Realisierung von Bürgernähe aus: Die Teilnehmer bestätigen vereinzelte Ergebnisse, die besagen, dass Bürgernähe über diesen Ansatz, d.h. über die daraus gewonnenen Erkenntnisse unterstützt werden kann. Damit erhalten Politiker Informationen darüber, was die Bürger denken und sagen.
2) Potenzielle Nutzer werden in der Regel solche sein, die zwar Erfahrung mit sozialen Netzwerken besitzen, jedoch keine "Poweranwender" sind. Daher bietet sich der Einsatz der Tools eher auf Parteiebene und in der Parlamentsarbeit an als auf der Ebene des einzelnen Politikers, der eher gewohnt ist, auf Facebook und Twitter direkt zu reagieren, die analytische Arbeit jedoch bevorzugt von den Partei- und/ oder Abgeordnetenbüros erledigen lässt.
3) Vergleicht man die ländlichen mit den urbanen Regionen, zeigt sich, dass die Menge von relevanten politischen Informationen auf dem Land gering ist. Während die Menge öffentlich zugänglicher Informationen in urbanen Regionen relativ groß ist, hat diese Menge in ländlichen Bereichen sehr viel weniger Gewicht.
Die Erkenntnisse aus den Befragungen werden in der vorliegenden Dissertation systematisch erhoben und ausgewertet.
Retrospektive Analyse der Ausbreitung und dynamische Erkennung von Web-Tracking durch Sandboxing
(2018)
Aktuelle quantitative Analysen von Web-Tracking bieten keinen umfassenden Überblick über dessen Entstehung, Ausbreitung und Entwicklung. Diese Arbeit ermöglicht durch Auswertung archivierter Webseiten eine rückblickende Erfassung der Entstehungsgeschichte des Web-Trackings zwischen den Jahren 2000 und 2015. Zu diesem Zweck wurde ein geeignetes Werkzeug entworfen, implementiert, evaluiert und zur Analyse von 10000 Webseiten eingesetzt. Während im Jahr 2005 durchschnittlich 1,17 Ressourcen von Drittparteien eingebettet wurden, zeigt sich ein Anstieg auf 6,61 in den darauffolgenden 10 Jahren. Netzwerkdiagramme visualisieren den Trend zu einer monopolisierten Netzstruktur, in der bereits ein einzelnes Unternehmen 80 % der Internetnutzung überwachen kann.
Trotz vielfältiger Versuche, dieser Entwicklung durch technische Maßnahmen entgegenzuwirken, erweisen sich nur wenige Selbst- und Systemschutzmaßnahmen als wirkungsvoll. Diese gehen häufig mit einem Verlust der Funktionsfähigkeit einer Webseite oder mit einer Einschränkung der Nutzbarkeit des Browsers einher. Mit der vorgestellten Studie wird belegt, dass rechtliche Vorschriften ebenfalls keinen hinreichenden Schutz bieten. An Webauftritten von Bildungseinrichtungen werden Mängel bei Erfüllung der datenschutzrechtlichen Pflichten festgestellt. Diese zeigen sich durch fehlende, fehlerhafte oder unvollständige Datenschutzerklärungen, deren Bereitstellung zu den Informationspflichten eines Diensteanbieters gehören.
Die alleinige Berücksichtigung klassischer Tracker ist nicht ausreichend, wie mit einer weiteren Studie nachgewiesen wird. Durch die offene Bereitstellung funktionaler Webseitenbestandteile kann ein Tracking-Unternehmen die Abdeckung von 38 % auf 61 % erhöhen. Diese Situation wird durch Messungen von Webseiten aus dem Gesundheitswesen belegt und aus technischer sowie rechtlicher Perspektive bewertet.
Bestehende systemische Werkzeuge zum Erfassen von Web-Tracking verwenden für ihre Messung die Schnittstellen der Browser. In der vorliegenden Arbeit wird mit DisTrack ein Framework zur Web-Tracking-Analyse vorgestellt, welches eine Sandbox-basierte Messmethodik verfolgt. Dies ist eine Vorgehensweise, die in der dynamischen Schadsoftwareanalyse erfolgreich eingesetzt wird und sich auf das Erkennen von Seiteneffekten auf das umliegende System spezialisiert. Durch diese Verhaltensanalyse, die unabhängig von den Schnittstellen des Browsers operiert, wird eine ganzheitliche Untersuchung des Browsers ermöglicht. Auf diese Weise können systemische Schwachstellen im Browser aufgezeigt werden, die für speicherbasierte Web-Tracking-Verfahren nutzbar sind.
Die Diplomarbeit "E-Partizipation Virtuelles Ressourcen Portal" beschreibt die Konzeptionalisierung und Implementierung des Virtual Resource Centre (VRC), eines internationalen Ressourcen- und Wissensportals für die multidisziplinäre Forschung und Anwendungsgebiete im Bereich E-Partizipation. Die Notwendigkeit für ein solches Portal entstand im Rahmen des europäischen DEMO_net Projekts, dem Exzellenznetzwerk für E-Partizipation. Das Ziel des Portals ist die verbesserte Verbreitung der aktuellen Wissensstände der angeschlossenen Forscher und Praktiker im Bereich von E-Partizipation. Dabei sollen gemeinsame Arbeiten und Diskussionen in den verteilten Projekten verbessert und die Ergebnisse dieser Arbeiten publiziert und gespeichert werden. Dazu ist ein leicht bedienbares und gut strukturiertes Portal notwendig, da viele angeschlossene Institutionen nicht aus dem technischen Bereich kommen. Die weiteren Ziele des VRC sind unter anderem, redundante Entwicklungen zu vermeiden, exzellente Forschungs- und Umsetzungseinrichtungen des Themenfeldes auszuweisen und die laufenden Projekte in E-Partizipation nach wählbaren Kategorien dynamisch aufzulisten. Die technische Grundlage für das Wissensportal ist ein mit vielen Erweiterungen versehenes Web Content Management System (WCMS). Um das den Anforderungen entsprechende WCMS zu ermitteln, werden mittels einer Nutzwertanalyse die verschiedene Systeme Plone, TYPO3 und Xoops verglichen. Durch das Einbinden und Entwickeln von Erweiterungen werden die speziellen Anforderungen an das VRC erfüllt, die die Verwaltung von Publikationen, Übersicht über Projekte, und Forschungsdisziplinen usw. unter Verwendung aktueller Web 2.0 Funktionalitäten beinhalten. Der Diplomarbeit liegen zwei Forschungsmethodiken zu Grunde. Design Research wurde als die grundlegende Methodik für diese Diplomarbeit gewählt. Design Research beschreibt in fünf Phasen einen Leitfaden nach dem ein Portal modelliert und anschließend realisiert werden kann. Eine weitere angewandte Methodik ist das Hypertext Design Modell, welches zum Erstellen eines Modells des VRC genutzt wird. In der Beschreibung der Implementierungen werden neben den Änderungen am WCMS, unter anderem auch die Benutzerverwaltung und Zugriffssteuerung, handbuchartig beschrieben. Zum Abschluss wird ein Überblick über die entstandenen Herausforderungen und Empfehlungen für weitere Entwicklungen und mögliche Arbeiten gegeben.
Smart Building Solutions - Generischer Ansatz für die Identifikation von Raumsteuerungsfunktionen
(2018)
40 Prozent der Wohnungs- und Immobilienunternehmen planen, im Rahmen von Neubau und Modernisierung intelligente Steuerungssysteme in ihre Liegenschaften zu integrieren. Gleichzeitig drängen Internetunternehmen mit ihren Geräten in Häuser und Wohnungen und versprechen intelligente Dienste für die Nutzer. Für beide Arten der neuen Technologien wird der Begriff des „Smart Home“ angewendet. Dabei hat die erste Gruppe der Systeme Ihren Ursprung im Bereich der „Gebäudeautomation“, die zweite Gruppe entwickelt sich aus dem Konzept des „Internet of Things“.
Um zu ergründen, was die Unterschiede sind und welche gemeinsamen Grundlagen existieren, werden die Bereiche der Gebäudeautomation und das Internet of Things als Systeme analysiert und einander gegenübergestellt.
Zentraler Beitrag der Arbeit ist die Erkenntnis, dass beide Domänen auf ähnlichen Konzepten aufbauen und eine Integration möglich ist, ohne die Integrität der Systeme selbst zu beeinträchtigen. Zudem liefert die Arbeit einen Ansatz dafür, wie die Planung von Gebäudesteuerungssystemen unter Einbeziehung des Internet of Things gestaltet werden kann.
Ziel dieser Forschungsarbeit ist die Auswahl und Evaluierung von Open-Source ERPSystemen auf effiziente Anwendbarkeit in Unternehmen zum Zwecke des Aufbaus eines "ERP-Future-Labs", in welchem mittelständische Handelsunternehmen das/die installierte(n) System(e) testen können. Den Projektabschluss bildet hierbei die Installation eines lauffähigen Systems, auf welchem die vom Auftraggeber vorgegebenen Geschäftsprozesse abgewickelt werden können. Ferner sollen die Auftraggeber auf dem System geschult, eine Dokumentation der Software (Installation/Bedienung) und des Projekts erstellt werden.
Betriebswirtschaftliche Trends wie der Wandel auf Käufermärkten, verkürzte Produktlebens- und Innovationszyklen, steigende Kundenanforderungen und immer leistungsfähiger werdende Informations- und Kommunikationstechnologien stellen für Unternehmen anspruchsvolle Herausforderungen dar. "Bis Anfang der 90er Jahre dominierten lokale Optimierungsbemühungen im Rahmen einer auf funktionale Spezialisierung ausgerichteten Aufbauorganisation entsprechend den Überlegungen zu Arbeitsteilung von beispielsweise Smith, Taylor und Ford. Aufgrund der vielfältigen Probleme dieses Ansatzes - insbesondere Schnittstellenbildung, demotivierte Mitarbeiter, mangelnde Kundenorientierung und erhöhter Aufwand zur Steuerung und Koordination der funktionalen Einheiten - vollzieht sich seit Beginn der 90er Jahre in den Wirtschaftswissenschaften und der unternehmerischen Praxis ein Paradigmenwechsel weg von der Funktions- hin zur Prozessorientierung." Die anspruchsvollen Probleme können aufgrund ihrer Kompliziertheit nicht mehr durch einfache, lokal anwendbare Maßnahmen gelöst werden. In Zeiten hoher Komplexität und Dynamik werden strategische Planungsaufgaben immer wichtiger für ein langfristig erfolgreiches Management. Entscheidungen mit großer Tragweite müssen im Vorfeld vollständig auf ihre kurz-und langfristigen Auswirkungen innerhalb und außerhalb des Unternehmens überprüft werden. Dabei sind die zeitverzögerten Rückkopplungen besonders wichtig. Es kann vorkommen, dass sich eine kurzfristig erfolgreiche Maßnahme zur Ergebnisverbesserung möglicherweise langfristig extrem negativ auf das Ergebnis auswirkt. System Dynamics, eine Methode zur Untersuchung komplexer, dynamischer Systeme, bietet die Möglichkeit, aus einer Analyse der Systemstruktur und des von ihr verursachten Verhaltens langfristig wirksame Entscheidungsregeln abzuleiten. Dabei werden Unternehmen als offene, äußerst vernetzte soziotechnische Systeme verstanden. System Dynamics, ursprünglich "Industrial Dynamics" genannt, wurde in den 50ern am MasMassachusetts Institute of Technology, MIT, entwickelt. Die Methode nimmt die Komplexität, Nichtlinearität und Rückkopplungsstrukturen, die sozialen und physikalischen Systemen enthalten, als Grundlage. Sie wird inzwischen an einer zunehmenden Zahl von Universitäten gelehrt. Unternehmen und Regierungen nutzen System Dynamics zur Simulation von Management- bzw. Politikentscheidungen. Mit der Hilfe der Methode wird es möglich, komplexe Systeme zu durchschauen, was für Entscheidungsträger eine zunehmende Herausforderung darstellt. Die "System Dynamics Society" ist bemüht, systematisches Denken einer breiten Masse von Anwendern zugänglich zu machen. Die Methode könnte die Menschen dabei unterstützen, die aktuellen Probleme und die langfristigen Auswirkungen des aktuellen Handelns zu verstehen. Die Intention dieser Arbeit ist es nun, zwei betriebswirtschaftliche Anwendungsgebiete der System Dynamics Modellierung mit jeweils einem konkreten Fallbeispiel vorzustellen. Dazu werden zunächst in Kapitel 2 die Grundlagen der Systemtheorie dargestellt. Dabei wird auf die Sichtweise von Forrester fokussiert. Darauf aufbauend wird in Kapitel 3 die die Methode detailliert vorgestellt. Nachdem die historische Entwicklung von System Dynamics aufgezeigt wird, werden die Anwendungsgebiete, die Grundlagen und die Grundsäulen der Modellierung und der Modellierungsprozess dargelegt. Im vierten Kapitel wird das erste Anwendungsgebiet untersucht, in der die System Dynamics Modellierung eingesetzt wird, die Balanced Scorecard, ein populäres Konzept für die Performancemessung in Unternehmen. Nachdem das Konzept vorgestellt wird, werden dessen Grenzen aufgezeigt, die mit der Verknüpfung des System Dynamics Ansatz überwunden werden können. Daraufhin werden die Möglichkeiten der System Dynamics Modellierung erläutert, womit die Schwächen der Balanced Scorecard reduziert werden, bevor anhand eines konkreten Fallbeispiels die Verknüpfung des System Dynamics Modellierung mit dem Balanced Scorecard Konzept vorgestellt wird. Eine abschließende Bewertung über die Anwendung wird dieses Kapitel abschließen. Im nächsten Kapitel wird die Anwendung der System Dynmaics Modellierung im Supply Chain Management untersucht. Zunächst werden die Grundlagen über das Supply Chain Management und Probleme, die damit verbunden sind, erläutert. Anhand des "Beer Game" werden die typischen Koordinationsprobleme mehrstufiger Lieferketten, der Bullwhip Effekt, verdeutlicht. Im nächsten Schritt wird die Anwendung der System Dynamics Modellierung im Supply Chain Management diskutiert, bevor die Umsetzung in einem konkreten Fallbeispiel aufgezeigt wird. Dieses Kapitel schließt mit einer Bewertung über die Anwendung von System Dynamics im Supply Chain Management ab. Mit dem abschließenden Kapitel Fazit wird die Arbeit abgerundet.
Diese Arbeit verbindet die Geschäftstätigkeit von Winzern im Weinbau mit einer innovativen technologischen Anwendung des Internet of Things. Die Arbeit des Winzers kann dadurch unterstützt und bereichert werden – bis hin zu einer bisher nicht möglichen Bewirtschaftungsoptimierung, insbesondere bei einer Überwachung einzelner Lagen bis hin zum einzelnen Rebstock. Exemplarisch werden Temperatur-, Luftfeuchtigkeit- und Bodenfeuchtigkeit-Daten gemessen, übertragen, gespeichert und bereitgestellt. Durch ein modulares Design des Systems können heute verfügbare Sensoren und gleichartige Niedervolt-Sensoren, die künftig entwickelt werden, sofort eingesetzt werden.
Durch IoT-Geräte im Weinberg erhält der Winzer eine neue Qualität der Genauigkeit der Vorhersage auf Basis aktueller Zustandsdaten seines Weinbergs. Zusätzlich kann er bei unvorhergesehenen Wetterbedingungen sofort eingreifen. Die sofortige Nutzbarkeit der Daten wird durch eine Cloud Infrastruktur möglich gemacht. Dabei wird eine offene Service-Infrastruktur genutzt. Im Gegensatz zu anderen bisher veröffentlichten kommerziellen Ansätzen ist dabei die beschriebene Lösung quelloffen.
Als eigenständiger Bestandteil der Arbeit wurde ein physikalischer Prototyp zur Messung relevanter Parameter im Weinberg neu entworfen und bis zur Erfüllung der gesetzten Spezifikationen entwickelt. Die skizzierten Merkmale und Anforderungen an eine funktionierende Datensammlung und ein autonom übertragendes IoT-Gerät wurden entwickelt, beschrieben und die Erfüllung durch das Prototypgerät demonstriert. Durch Literaturrecherche und unterstützende, orientierende Interviews von Winzern wurden die Theorie und die praktische Anwendung synchronisiert und qualifiziert.
Für die Entwicklung des Prototyps wurden die allgemeinen Prinzipien der Entwicklung eines elektronischen Geräts befolgt, insbesondere die Entwicklungsregeln von Design Science Research und die Prinzipien des Quality Function Deployment. Als ein Merkmal des Prototyps wurden einige Prinzipien wie die Wiederverwendung von bewährten Konstruktionen und die Materialpreise der Bausteine des Prototypen wurden ebenfalls in Betracht gezogen (z. B. Gehäuse; Arduino; PCB). Teilezahl-Reduktionsprinzipien, Dekomplexierung und vereinfachte Montage, Prüfung und Vor-Ort-Service wurden in den Entwicklungsprozess durch den modularen Aufbau der funktionellen Weinberg- Gerätekomponenten integriert, wie es der Ansatz des innovativen Schaltschrankbau- System Modular-3 beschreibt.
Das Software-Architekturkonzept basiert auf einer dreischichtigen Architektur inklusive der TTN-Infrastruktur. Das Frontend ist als Rich-Web-Client realisiert, als ein WordPress- Plugin. WordPress wurde aufgrund der weiten Verbreitung über das gesamte Internet und der Einfachheit in der Bedienung ausgewählt, was eine schnelle und einfache Benutzereinweisung ermöglicht. Relevante Qualitätsprobleme wurden im Hinblick auf exemplarische Funktionalität, Erweiterbarkeit, Erfüllung von Anforderungen, Verwendbarkeit und Haltbarkeit des Gerätes und der Software getestet und diskutiert.
Der Prototyp wurde mit Erfolg im Labor und im Einsatzgebiet unter verschiedenen Bedingungen charakterisiert und getestet, um eine Messung und Analyse der Erfüllung aller Anforderungen durch die geplante und realisierte elektronische Konstruktion und Anordnung des Prototypen, zu ermöglichen.
Die entwickelte Lösung kann als Grundlage für eine zukünftige Anwendung und Entwicklung in diesem speziellen Anwendungsfall und ähnlichen Technologien dienen. Ein Ausblick möglicher zukünftiger Arbeiten und Anwendungen schließt diese Arbeit ab.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Zusammenfassung Eine Statistik mit einer anderen zu vergleichen, ist keine einfache Angelegenheit. Besonders dann nicht, wenn die Analysen auf zwei Erhebungen basieren, die nicht dieselben Fragestellungen verfolgen, unterschiedliche Erhebungsmethoden zur Grunde liegen, und vor allem dann nicht, wenn die Stichprobengrößen sehr stark voneinander abweichen. Genau darum wird es in dieser Arbeit gehen: Eine Gegenüberstellung von einer amtlichen und einer nichtamtlichen Statistik, der Mikrozensus und das Sozio-ökonomische Panel (SOEP). Eine Hilfskonstruktion zur Untersuchung vom Fertilitätsverhalten von Frauen in Deutschland wird einmal im Mikrozensus und einmal im SOEP durchgeführt. Dabei soll überprüft werden, wie gut oder weniger gut die Übertragbarkeit eines Untersuchungsmodells vom Mikrozensus auf das SOEP möglich ist. Das SOEP bietet die Möglichkeit die Hilfskonstruktion, d.h. also die Schätzungen, auf ihre Validität zu prüfen. Im SOEP wird das Untersuchungsmodell ein zweites Mal durchlaufen, allerdings wird nicht die geschätzte Anzahl an Müttern genommen, sondern die mit dem SOEP tatsächlich festgestellten Anzahl. Auf diese Weise wird versucht die Qualität der Schätzwerte herauszufinden.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
Mobile payment has been a payment option in the market for a long time now and was predicted to become a widely used payment method. However, over the years, the market penetration rate of mPayments has been relatively low, despite it having all characteristics required of a convenient payment method. The primaryrnreason for this has been cited as a lack of customer acceptance mainly caused due to the lack of perceived security by the end-user. Although biometric authentication is not a new technology, it is experiencing a revival in the light of the present day terror threats and increased security requirements in various industries. The application of biometric authentication in mPayments is analysed here and a suitable biometric authentication method for use with mPayments is recommended. The issue of enrolment, human and technical factors to be considered are discussed and the STOF business model is applied to a BiMoP (biometric mPayment) application.
Diese Arbeit stellt eine Erweiterung zum SpoGA-Server dar. Grundlage war die Idee, kleinen Gruppen einen gesicherten zeitbegenzten Zugang zu einem WLAN zu geben. Diese Idee wurde um die Möglichkeit der Planung ganzer Veranstaltungen erweitert. Nun ist es möglich, ganze Gruppen für Veranstaltungen an einem WLAN anzumelden. In Zusammenarbeit mit den beiden anderen Arbeiten zu diesem Thema wurde ein funktionsfähiger Prototyp entwickelt. SpoGA und E-IMS Server arbeiten beide eigenständig, zusammen jedoch bilden sie ein sehr funktionelles Werkzeug zur Organisation, Planung und Durchführung einer Veranstaltung mit Internetzugang für die Gäste.
Im Rahmen der mGeoWiki-Projekte wird ein neuer Ansatz geschaffen, mit ortsbezogenen Daten umzugehen. Bisher gibt es zum einen Geo-Portale, wie Google Maps, die es einem ermöglichen, Landkarten oder Luftbilder von jedem beliebigen Ort auf der Erde anzusehen. Dort können von jedem Benutzer zusätzliche Informationen oder auch Fotos hinterlegt und somit anderen Benutzern zugänglich gemacht werden. Die Nutzung dieses Dienstes ist kostenlos. Eine weitere Nutzung ortsbezogener Daten findet sich bei den Navigationssystemen. Hier wird die aktuelle Position mit Hilfe des GPS-Empfängers ermittelt und auf einer Karte angezeigt. Darüber hinaus werden thematische Informationen, wie Hotels oder Tankstellen, dargestellt. Diese zusätzlichen Informationen sind jedoch nicht unmittelbar durch den Benutzer veränderbar, sondern werden durch die Hersteller der Geräte vorgegeben. Eine Aktualisierung ist in der Regel kostenpflichtig. Das mGeoWiki kombiniert diese verschiedene Aspekte zu einem neuen Service. Der erste wichtige Aspekt ist die Mobilität. Der Benutzer kann sich frei in seiner Umwelt bewegen,seine Position wird mittels GPS festgestellt. Dann werden dem Benutzer Luftbilder und zusätzliche Informationen über den aktuellen Standort gezeigt. Der Benutzer ist also nicht mehr an seinen heimischen PC gebunden. Der zweite wichtige Aspekt ist die Möglichkeit der Benutzer, eigene, standortbezogene Daten zu hinterlegen, zu diskutieren und zu verändern. Am Beispiel des Landesamts für Vermessung und Geobasisinformation Rheinland-Pfalz (LVermGeo RLP) und dessen Plattform TIM-Online wird gezeigt, wie sich das mGeoWiki als generische Plattform im e-Government-Kontext einsetzen lässt.
This Thesis contributes by reporting on the current state of diffusion of collaboration information technology (CIT). The investigation concludes, with a high degree of certainty, that today we have a "satisfactory" diffusion level of some level-A CITs (mostly e-Mail, distantly followed by Audio Conferencing), and a "dissatisfactory" diffusion level of higher-level CITs (i.e. those requiring significant collaboration and cooperation among users, like Meeting Support Systems, Group Decision Support Systems, etc.). The potential benefits of the latter seem to be far from fully realised due to lack of user acceptance. This conclusion has gradually developed along the research cycle " it was suggested by Empirical Study I, and tested through Empirical Studies II and III. An additional, unplanned and rather interesting, finding from this study has been the recognition of large [mostly business] reporting on numerous Web 2.0 user-community produced collaboration technologies (most of them belonging to the category of "social software") and their metamorphosis from autonomous, "bottom-up" solutions into enterprise-supported infrastructures. Another contribution of this Thesis " again suggested by Empirical Study I, and tested through Empirical Studies II and III " pertains to the "process structure" of CIT diffusion. I have found that collaboration technology has historically diffused following two distinct (interdependent but orthogonal) diffusion paths " top-down (authority-based) and bottom-up. The authority-based diffusion path seems to be characterised by efforts aimed at "imposing" technologies on employees, the primary concern being to make sure that technology seamlessly and easily integrates into the organisational IT infrastructure. On the other hand, the bottom-up diffusion trail seems to be successful. The contribution of this investigation may be summarised as threefold: 1. This investigation consolidates most of the findings to date, pertaining to CIT adoption and diffusion, which have been produced by the CIT research community. Thus, it tells a coherent story of the dynamics of the community focus and the collective wisdom gathered over a period of (at least) one decade. 2. This work offers a meaningful framework within which to analyse existing knowledge " and indeed extends that knowledge base by identifying persistent problems of collaboration technology acceptance, adoption and diffusion. These problems have been repeatedly observed in practice, though the pattern does not seem to have been recognised and internalised by the community. Many of these problems have been observed in cases of CIT use one decade ago, five years ago, three years ago, and continue to be observed today in structurally the same form despite what is unarguably "rapid technological development". This gives me reason to believe that, at least some of the persistent problems of CIT diffusion can be hypothesised as "determining factors". My contribution here is to identify these factors, discuss them in detail, and thus tackle the theme of CIT diffusion through a structured historical narrative. 3. Through my contribution (2) above, I characterise a "knowledge-action gap" in the field of CIT and illuminate a potential path through which the research community might hope to bridge this gap. The gap may be operationalised as cognitive distance between CIT "knowledge" and CIT "action".
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Obwohl E-Partizipation immer mehr an Bedeutung gewinnt, werden Sicherheitsrisiken und -anforderungen bisher nur oberflächlich betrachtet. Diese Masterarbeit soll einen Beitrag zur Sicherheit und zum Datenschutz von E-Partizipationsanwendungen leisten. Dabei befasst sich die Arbeit mit dem Nutzer von elektronischen Beteiligungsformen. Da dieser im E-Partizipationsprozess seine persönlichen Daten bereitstellt, müssen Vertrauenswürdigkeit, Vertraulichkeit, Transparenz, Verfügbarkeit und Rechtssicherheit zwischen öffentlicher Verwaltung und Nutzer geschaffen werden. Eine der wichtigsten Maßnahmen hierbei ist es, einen möglichst hohen Sicherheits- und Datenschutzstandard in der Informations- und Kommunikationstechnologie durch die Verwaltung zu gewährleisten und dem Bürger Sicherheit im Umgang mit E-Partizipationsanwendungen zu geben. Die Masterarbeit untersucht verschiedene E-Partizipationsangebote der Bereiche Bürgerhaushalte, E-Konsultationen, Parteiwebseiten und E-Petitionen und beleuchtet zunächst, welchen Einfluss sicherheitskritische E-Partizipationssysteme auf das politische System haben können. Anschließend wird der derzeitige Sicherheitsstandard der E-Partizipationsangebote erfasst. Hierzu wird ein Analyse-Framework verwendet, das für E-Partizipation relevante Sicherheits- und Datenschutzaspekte betrachtet. Darauf aufbauend werden Sicherheitslevels für verschiedenen Typen von E-Partizipationsanwendungen abgeleitet und Empfehlungen für die Gestaltung von E-Partizipation gegeben. Auf Grundlage dessen werden Handlungsempfehlungen gegeben, die helfen können, E-Partizipationsanwendungen zukünftig sicherer zu gestalten. Weiterhin werden zukünftige Technologien vorgestellt, die das Potential haben, die Sicherheit bei der Nutzung von Systemen zur elektronischen Bürgerbeteiligung zu erhöhen.
Enterprise Collaboration Systems (ECS) haben sich als zentrale Werkzeuge zur computergestützten Kommunikation und Kollaboration zwischen Mitarbeitenden in Unternehmen entwickelt. ECS vereinen Funktionalitäten aus social media und Groupware. Daher führen mehr und mehr Unternehmen ECS ein, um die Zusammenarbeit am digitalen Arbeitsplatz zu unterstützen. Dementsprechend bilden ECS den Kern des digitalen Arbeitsplatzes. Dies verleiht den Logs dieser Systeme einen besonderen Wert, da sich einzigartige Möglichkeiten bieten, um Kollaboration zwischen Mitarbeitern am digitalen Arbeitsplatz zu beobachten und zu analysieren.
Der aktuelle Stand der Forschung zeigt auf, dass es sowohl in der Forschung aus auch in der Praxis keine einheitliche Herangehensweise an die Analyse von ECS Logfiles gibt. Aufgrund des eingeschränkten Funktionsumfangs von ECS Analytics Software können Wissenschaftler und Praktiker das volle Potenzial der Logs nicht ausschöpfen. Da die Logfiles von ECS zur Untersuchung von Kollaboration am digitalen Arbeitsplatz von großem Wert sind, müssen neue Methoden und Kennzahlen für deren Analyse entwickelt werden. Um die bestehenden Limitationen zu adressieren, beantwortet diese Dissertation die folgenden Forschungsfragen:
1. Welches sind die aktuellen Herangehensweisen an die Messung von Kollaboration in Enterprise Collaboration Systems?
2. Wie kann Social Collaboration Analytics in der Praxis angewendet werden?
Diese Dissertation entwickelt SCA als Methode für die Messung und Analyse von Kollaboration in ECS. Durch die Beantwortung der Forschungsfragen, baut die Dissertation ein allgemeines, breites Verständnis dieses neuen Forschungsfeldes auf und entwickelt eine Herangehensweise für die Anwendung von SCA. Als Teil der ersten Forschungsfrage stellt die Dissertation den Status Quo von SCA in Forschung und Praxis fest. Im Zuge der Beantwortung der zweiten Forschungsfrage wird das Social Collaboration Analytics Framework (SCAF) entwickelt. Das Framework ist der Hauptbeitrag dieser Dissertation und wurde auf Basis einer Analyse von 86 SCA Studien, den Ergebnissen aus 6 Fokusgruppen und den Ergebnissen einer Befragung von 27 ECS Anwenderunternehmen entwickelt. Die Phasen von SCAF wurden aus einer Analyse von bestehenden Prozessmodellen für data mining und business intelligence abgeleitet. Die acht Phasen des Frameworks beinhalten detaillierte Beschreibungen, Arbeitsschritte und Leitfragen, die eine Schritt für Schritt Anwendung für die Anwendung von SCA bieten.
Diese Dissertation verfolgt einen qualitativ-dominanten mixed-methods Ansatz. Als Teil der Forschungsinitiative IndustryConnect besteht Zugang zu mehr als 30 führenden ECS-Anwenderunternehmen. Die Durchführung von aufeinander aufbauenden Fokusgruppen ermöglicht die Sammlung einzigartiger Daten über einen längeren Zeitraum hinweg. Basierend auf einer Tiefenfallstudie und ECS Logs eines Unternehmens, zeigt die Dissertation auf, wie das SCA Framework in der Praxis angewendet werden kann.
Cloud Computing is a topic that has gained momentum in the last years. Current studies show that an increasing number of companies is evaluating the promised advantages and considering making use of cloud services. In this paper we investigate the phenomenon of cloud computing and its importance for the operation of ERP systems. We argue that the phenomenon of cloud computing could lead to a decisive change in the way business software is deployed in companies. Our reference framework contains three levels (IaaS, PaaS, SaaS) and clarifies the meaning of public, private and hybrid clouds. The three levels of cloud computing and their impact on ERP systems operation are discussed. From the literature we identify areas for future research and propose a research agenda.
Diese Arbeit beschäftigt sich mit Information Audit Methodologien und Methoden zur Informationserfassung in Enterprise Social Software. Die Erfassung von Informationsressourcen ist ein elementarer Bestandteil des Information Audit. Das Fehlen einer standardisierten Definition und von standardisierten Methodologien für Information Auditing ist begründet durch den weit gefächerten Anwendungsbereich des Information Audit und durch seine notwendige individuelle Anpassbarkeit an die Bedürfnisse der durchführenden Organisationen. Die Vorteile von Information Auditing und die möglichen Herausforderung durch Enterprise 2.0, die mit Hilfe des Audits überwunden werden können, sind weitreichend und stellen einen Anreizpunkt für Manager einen Information Audit durchzuführen. Information Asset Register als Ausgangspunkt für erfolgreiches Information Auditing berücksichtigen noch nicht die besonderen Herausforderungen von Enterprise 2.0. Deshalb spannt dieses Forschungsprojekt einen Bogen von Information Asset Registern aus verschiedenen Einflussbereichen und kombiniert diese, um ein neuartiges Asset Register, welches die besonderen Anforderungen von Enterprise 2.0 berücksichtigt, zu erstellen. Die notwendigen Anpassungen, die durch die neuen Charakteristika der Informationsressourcen verursacht werden, sind von geringem Ausmaß. Das neu entwickelte Asset Register wird im abschließenden Teil der Arbeit in einer Fallstudie angewendet und zeigt mögliche Problembereiche, die beim Zusammenstellen des Registers auftreten können, auf.
Als Abschluss der Arbeit wird eine Vorlage entwickelt, welche Nutzern von Enterprise Social Software beim Erstellen von neuen Arbeitsbereichen behilflich sein wird, diese mit passenden Metadaten, wie sie bereits im Information Asset Register festgehalten werden, zu versehen.
Das Internet of Things (IoT) ist ein schnell wachsendes, technologisches Konzept, das darauf abzielt, verschiedenste physikalische und virtuelle Objekte in einem globalen Netzwerk zu vereinen um Interaktion und Kommunikation zwischen diesen Objekten zu ermöglichen (Atzori, Iera and Morabito, 2010). Die Einsatzmöglichkeiten dieser Technologie sind vielfältig und könnten Gesellschaft und Wirtschaft in ähnlicher Weise verändern wie die Nutzung des Internets (Chase, 2013). Darüber hinaus nimmt das Internet of Things eine zentrale Rolle in der Realisation von visionären Zukunftskonzepten ein, beispielsweise Smart City oder Smart Healthcare. Zudem verspricht die Anwendung dieser Technologie Möglichkeiten, verschiedene Aspekte der Nachhaltigkeit zu verbessern und zu einem bewussteren, effizienteren und schonenderen Umgang mit natürlichen Ressourcen beizutragen (Maksimovic, 2017). Das Handlungsprinzip der Nachhaltigkeit gewinnt im gesellschaftlichen und akademischen Diskurs zunehmend an Bedeutung und trägt den teils schädlichen Produktions- und Konsummustern des vergangenen Jahrhunderts Rechnung (Mcwilliams et al., 2016). Im Zusammenhang mit Nachhaltigkeit ist die fortschreitende Verbreitung von IoT Technologie allerdings auch mit Risiken verknüpft, die im Rahmen des Vorsorgeprinzips rechtzeitig bedacht werden müssen (Harremoës et al., 2001). Dazu zählen der massive Energie- und Rohstoffbedarf der Produktion und des Betriebs von IoT Objekten, sowie deren Entsorgung (Birkel et al., 2019). Die genauen Zusammenhänge und Auswirkungen von IoT im Bezug auf Nachhaltigkeit sind bisher nur unzureichend erforscht und nehmen keine zentrale Rolle in der Diskussion dieser Technologie ein (Behrendt, 2019). Diese Arbeit hat daher das Ziel, einen umfassenden Überblick der Zusammenhänge zwischen IoT Technologie und Nachhaltigkeitsaspekten zu erarbeiten.
Um dieses Ziel zu verwirklichen, verwendet diese Arbeit die Grounded Theory Methodik in Verbindung mit einer umfassenden Literaturanalyse. Die analysierte Literatur besteht dabei aus Forschungsbeiträgen, die besonders dem Gebiet der Informationstechnik (IT) entstammen. Auf Grundlage dieser Literaturanalyse wurden Aspekte, Lösungsansätze, Effekte und Barrieren im Kontext von IoT und Nachhaltigkeit erarbeitet. Im Laufe der Analyse kristallisierten sich zwei zentrale Sichtweisen auf IoT im Zusammenhang mit Nachhaltigkeit heraus. IoT für Nachhaltigkeit (IoT4Sus) beschreibt dabei den Einsatz und die Nutzung von IoT generierten Informationen, um eine Verbesserung im Hinblick auf verschiedene Nachhaltigkeitsaspekte zu erzielen. Nachhaltigkeit für IoT (Sus4IoT) hingegen fokussiert Nachhaltigkeitsaspekte der eingesetzten Technologie und zeigt Lösungen auf um, mit der Produktion und dem Betrieb verknüpfte, negative Auswirkungen auf Nachhaltigkeit zu verringern. Die erarbeiteten Aspekte und Beziehungen wurden in einem umfangreichen Rahmenwerk, dem CCIS Framework, festgehalten und dargestellt. Dieses Rahmenwerk stellt ein Werkzeug zur Erfassung relevanter Aspekte und Beziehungen in diesem Bereich dar und trägt damit zur Bewusstseinsbildung in diesem Kontext bei. Darüber hinaus empfiehlt das Rahmenwerk ein Handlungsprinzip um die Performance von IoT Systemen im Rahmen der Nachhaltigkeit zu optimieren.
Der zentrale Beitrag dieser Arbeit besteht in der Bereitstellung des CCIS Framework, sowie der darin enthaltenen Informationen hinsichtlich der Aspekte und Beziehungen von IoT und Nachhaltigkeit.
Ziel dieser Arbeit ist es, ein Recommender System (RS) für Geschäftsprozesse zu erstellen, das auf dem bestehenden ProM-Plug-in RegPFA aufbaut. Um dies zu gewährleisten, soll zunächst eine Schnittstelle geschaffen werden, welche die von RegPFA erstellten probabilistischen endlichen Automaten (PFA) im tsml-Format zu einer erweiterbaren Datenbasis zusammenfassen kann. Anschließend soll ein Java-Programm geschrieben werden, das mithilfe dieser Datenbasis zu einem gegebenen Teilprozess die wahrscheinlichsten Empfehlungen für das nächstfolgende Prozesselement angibt.
Unternehmen versuchen, Knowledge Management (KM) zu nutzen, um mehr Effizienz und Effektivität im Unternehmen zu erreichen. Das Hauptproblem besteht darin, dass die meisten dieser KM Projekte nicht oder nur selten auf nachhaltigen Analysen oder etablierten Theorien über KM basieren. Oft besteht eine große Kluft zwischen den Erwartungen und dem tatsächlichen Ergebnis solcher KM Initiativen. Die zu beantwortende Forschungsfrage lautet also: Welche Herausforderungen ergeben sich in KM Projekten, welche KM Anforderungen können daraus abgeleitet werden und welche Empfehlungen unterstützen das Ziel, die Anforderungen an KM zu erfüllen? Als theoretische Grundlage wird eine Reihe von KM Frameworks untersucht. Anschließend werden KM Herausforderungen aus der Literatur analysiert und mit Best-Practice-Beispielen aus Case-Studies werden Handlungsempfehlungen für diese Herausforderungen gegeben. Das Hauptergebnis dieser Arbeit ist eine Best Practice-Guideline, die es Chief Knowledge Officers (CKOs) und KM Projektmanagern ermöglicht, die in dieser Arbeit genannten Herausforderungen genau zu untersuchen und eine geeignete Methode zu finden, diese Herausforderung optimal zu meistern. Diese Guideline zeigt, dass KM auf vielfältige Weise positiv und negativ beeinflusst werden kann. Knowledge Management (KM) in einem Unternehmen zu meistern ein großes und weitreichendes Unterfangen ist und das Technologie bzw. Information Technology (IT) nur ein Teil des großen Ganzen ist.
Das Internet der Dinge – Internet of Things (IoT) – ist kürzlich der entfernten Vision des Ubiquitous Computing entwachsen und findet nunmehr konkret Eingang in Politik und Wirtschaft, welches sich in aufwendigen Förderprogrammen äußert. Unternehmen sehen sich mit dem von Experten vorhergesagten, gravierenden Wandel von Geschäftsmodellen konfrontiert und müssen darauf reagieren, um im Wettbewerb bestehen zu können. Obgleich daher ein Bedarf zur Strategieentwicklung bezüglich der kommenden Veränderungen in Unternehmen besteht, ist das Thema des organisationsbezogenen Wandels in Hinblick auf die neue Technologie in der akademischen Diskussion derzeit noch wenig präsent. Die vorliegende Arbeit erforscht IoT-verknüpften Wandel in Unternehmen, indem sie un- terschiedliche Arten des Wandels identifiziert und klassifiziert. Sie kombiniert zu diesem Zweck den methodischen Ansatz der gegenstandsbezogenen Theoriebildung (Grounded Theory) mit einer Diskussion und Klassifikation von identifizierten Veränderungen vor dem Hintergrund eines strukturierten Literaturüberblicks im Bereich des Wandels in Organisationen. Diesbezüglich erfolgt eine Meta-Analyse von Fallstudien mittels einer qualitativ-explorativen Kodierungs-Methode zur Identifizierung von Kategorien des organisationsbezogenen Wandels, welcher mit der Einführung von IoT in Verbindung steht. Darüber hinaus wird eine Gegenüberstellung der identifizierten Kategorien mit vorherigem technologie-verknüpftem Wandel am Beispiel von Electronic Business (e-business), Enterprise Resource Planning (ERP)-Systemen und Customer Relationship Management (CRM)-Systemen durchgeführt. Den Hauptbeitrag dieser Arbeit stellt die Entwicklung eines umfassenden Modells von organisationsbezogenem Wandel bezüglich IoT dar. Das Modell präsentiert zwei Hauptthemen des Wandels, welche nahe legen, dass persönliche, intelligente Objekte Unternehmen dadurch verändern werden, dass vermehrt personen-gebundene, mobile Geräte zum Einsatz kommen. Objekte schlagen ihren Nutzern Tätigkeiten oder den gesamten Arbeitsablauf vor und versuchen gefährliche Situationen zu vermeiden. Gleichzeitig wird die Verfügbarkeit von Informationen im Unternehmen bis zur ubiquitären Präsenz steigen. Dies wird es letztlich ermöglichen, Informationen bezüglich Objekten und Personen jederzeit und an jedem Ort zu nutzen. Als Nebenergebnis gibt die vorliegende Arbeit einen Überblick über Konzepte der wissenschaftlichen Literatur im Bereich technologie-verknüpften Wandels in Organisationen.
Business Process Querying (BPQ) is a discipline in the field of Business Process Man- agement which helps experts to understand existing process models and accelerates the development of new ones. Its queries can fetch and merge these models, answer questions regarding the underlying process, and conduct compliance checking in return. Many languages have been deployed in this discipline but two language types are dominant: Logic-based languages use temporal logic to verify models as finite state machines whereas graph-based languages use pattern matching to retrieve subgraphs of model graphs directly. This thesis aims to map the features of both language types to features of the other to identify strengths and weaknesses. Exemplarily, the features of Computational Tree Logic (CTL) and The Diagramed Modeling Language (DMQL) are mapped to one another. CTL explores the valid state space and thus is better for behavioral querying. Lacking certain structural features and counting mechanisms it is not appropriate to query structural properties. In contrast, DMQL issues structural queries and its patterns can reconstruct any CTL formula. However, they do not always achieve exactly the same semantic: Patterns treat conditional flow as sequential flow by ignoring its conditions. As a result, retrieved mappings are invalid process execution sequences, i.e. false positives, in certain scenarios. DMQL can be used for behavioral querying if these are absent or acceptable. In conclusion, both language types have strengths and are specialized for different BPQ use cases but in certain scenarios graph-based languages can be applied to both. Integrating the evaluation of conditions would remove the need for logic-based languages in BPQ completely.
Die Bedeutung von Innovation für die Sicherung der Unternehmensexistenz nimmt zu. Gerade im Bereich der Informations- und Kommunikationssysteme zwingen veränderte Rahmenbedingungen, verkürzte Produktlebenszyklen und verstärkter Wettbewerb viele Unternehmen zur Anpassung ihrer Innovationsgeschwindigkeit. Langfristiger Erfolg wird sich nur für die Unternehmen einstellen, denen es gelingt, durch technologische Innovationen ihre Wettbewerbsposition zu festigen oder auszubauen. Dies erfordert einen gesonderten Umgang mit technologischen Innovationen und verlangt nach einem Technologie- und Innovationsmanagement. Dabei ist nicht jede Innovation das Produkt einer einmaligen, möglicherweise gar spontanen Idee. Viele Innovationen entstehen aus der Integration oder Kombination bereits bewährter Technologien. Dies ist besonders interessant, wenn die originären Technologien Branchen entstammen, die nur noch marginale Wachstumsraten aufweisen. Ziel dieser Arbeit ist die Identifizierung eventuell existierender Mängel etablierter Vorschläge für ein strategisches Technologie- und Innovationsmanagement, sowie darauf aufbauend die Formulierung eines eigenen Vorschlags zum Umgang mit Innovationen, die durch Technologieintegration entstanden sind.
Weltweit kann im letzten Jahrzehnt auf eine rasch zunehmende Akzeptanz des Internets als Informationsplattform zurückgeblickt werden. Grundlegende Änderungen fanden sowohl im privaten als auch im öffentlichen Sektor statt. Im Zuge dessen wurde die aktive Beteiligung von Bürgern in politische Meinungsbildungsprozesse mehr und mehr elektronisch unterstützt. Die Erwartungen an die neue Technologie steigerten sich in die Annahme, dass Informations- und Kommunikationstechnologien (IKT) die Bürgerbeteiligung verbessern und die Politikverdrossenheit mindern können. Aus diesen Erwartungen entwickelten sich einige E-Partizipationsprojekte in Deutschland. Außerdem wurde die "Initiative eParticipation" ins Leben gerufen, die in Bezug auf E-Partizipation Politik und Verwaltungen stark anregte, den Entscheidungsprozess mit Hilfe von internetgestützten Beteiligungspraktiken zu stärken. Diese Arbeit besteht aus zwei Hauptteilen. Im ersten Teil werden Definitionen der kritischen Begriffe präsentiert. Außerdem wird die Position von E-Partizipation innerhalb der Dimension des E-Business aufgezeigt. Um E-Partizipation zu erläutern, werden zuerst Grundlagen der klassischen Bürgerbeteiligung erklärt. Es wird gezeigt, dass sich auch die klassische Bürgerbeteiligung in einem Veränderungsprozess befindet, dessen Ursache nicht nur der Einsatz von IKT ist. Nachfolgend wird ein Rahmenwerk präsentiert, welches das Spektrum von E-Partizipation charakterisiert. Die Europäische Union fördert die Umsetzung von E-Partizipation. Koblenz soll da keine Ausnahme bilden. Aber wie ist die momentane Situation in Koblenz? Um diese Frage zu beantworten wird der gegenwärtige Zustand untersucht. Dazu wurde eine Umfrage unter den Bürgern der Stadt entwickelt, durchgeführt und ausgewertet. Dies ist der zweite Hauptteil dieser Arbeit.
Diese Arbeit analysiert die Möglichkeiten der Text- und Netzwerkanalyse kriminologischer Daten. Dabei werden diese Daten unter dem Aspekt der Geldwäsche betrachtet. Zum Zweck der Analyse wurden aus dem Text die wichtigsten Konzepte in elf verschiedene Klassen aufgeteilt. Die Zusammenhänge zwischen den identifizierten Konzepten wurden ebenfalls untersucht. Einige Aussagen über Geldwäsche lassen sich durch die Interpretation der Ergebnisse validieren. Es werden bestimmte Konzepte, wie Banken, Unternehmen und ausländische Tochtergesellschaften als wichtige Konzepte identifiziert. Das bestätigt zusammen mit dem in Kapitel 1.4.3 dargestellten zyklischen Ablauf von Geldwäschevorgängen die Vermutung, dass bestimmte Organisationen und Personen, innerhalb des betrachteten Falles, Gelder über Banken, Gesellschaften und Investitionen in den legalen Finanzmarkt einfließen lassen. Ebenfalls wird innerhalb dieser Arbeit der Nutzen der betrachteten Tools für den hier zugrundeliegenden Forschungsprozess analysiert und eine Einschätzung der Eignung von ORA und Automap für diese Art von Forschung geliefert.
Business continuity planning
(2008)
Unternehmenskrisen lassen die Weltwirtschaft aufhorchen - gerade in jüngster Zeit häufen sich die Nachrichten über Notfälle und folgenschwere Fehlentscheidungen in Organisationen aller Art. Vieles bekommt die Außenwelt aber gar nicht erst mit, wenn die Ausweitung von Störungen noch in letzter Sekunde verhindert werden kann. Und wenn das Ausmaß zu groß wird? Dann droht oft das wirtschaftliche Aus. Business Continuity Planning ist der Vorsorgeprozess, der eine Institution auf den Ausnahmefall vorbereitet und garantiert, dass deren Existenz zu jeder Zeit gesichert ist und alle geschäftskritischen Prozesse auch während einer Krise aufrecht erhalten werden können. Diese Diplomarbeit erleichtert den Einstieg in das Thema Business Continuity Planning und in die erfolgreiche Umsetzung von Notfallmaßnahmen. Aus dem Blickwinkel der IT werden wertvolle Definitionen und Abgrenzungen gegeben und die Problemstellungen und Lösungswege einer individuellen Notfallvorsorge aufgegriffen. Fokussiert wird ein umfassender Überblick über die zentralen Teilbereiche des Planungsprozesses (und ihrer Erfolgskriterien) und ein praktischer Einblick in das Krisenmanagement.
Das Ziel dieser Arbeit ist es, zu bestimmen, ob neuronale Netze (insbesondere LSTM) zur Prozessvorhersage eingesetzt werden können. Dabei soll eine möglichst genaue Vorhersage zu dem Nachfolger eines Events getroffen werden.
Dazu wurde Python mit dem Framework TensorFlow genutzt, um ein rekurrentes neuronales Netz zu erstellen. Dabei werden zwei Netze erstellt, wobei das eine für das Training und das andere für die Vorhersage genutzt wird.
Die verwendeten Datensätze bestehen aus mehreren Prozessen mit jeweils mehreren Events. Mit diesen Prozessen wird das Netz trainiert und die Parameter nach dem Training gespeichert. Das Netz zur Vorhersage nutzt dann dieselben Parameter, um Vorhersagen zu Events zu treffen.
Das neuronale Netz ist in der Lage, nachfolgende Events eindeutig vorherzusagen. Auch Verzweigungen können vorhergesagt werden.
In der weiteren Entwicklung ist eine Einbindung in andere Programme möglich. Dabei ist es empfehlenswert, auf eine eindeutige Benennung der Events zu achten oder eine geeignete Umbenennung durchzuführen.
Im Rahmen dieser Bachelorarbeit wurde ein Back-Office für die elektronische Version des Europäischen Schadensberichtes erstellt. Es wurde bereits in anderen Arbeiten ein mobiler Client, welcher auf einem Windows Mobile Handy läuft, sowie ein Polizei Client erstellt. Diese greifen auf das Back-Office zu, um Daten, wie z.B. die Autodaten (Automarke, der Typ, das Baujahr und Bilder eines 3D-Modells des Autos) zu einem bestimmten Kennzeichen oder die Personendaten des jeweiligen Autobesitzers zu erhalten. Der mobile Client sendet zudem die Unfallakte an das Back-Office, damit die Daten über einen Unfall in diesem abgespeichert und weiter bearbeitet werden können. Ziel der Arbeit war es ein erweiterbares, modulares System zu entwickeln, welches später um weitere Module ergänzt werden kann, um neue Funktionen bereitstellen zu können. Diese Module können jeweils beliebige Daten in einer Datenbank abspeichern und diese von der Datenbank auch wieder abfragen, sowie verändern, ohne dass das relationale Schema der Datenbank verändert werden muss.
Die vorliegende Arbeit beschäftigt sich mit den Nutzenpotentialen des GeoPortal.rlp. Hierzu werden zwei empirische Studien erhoben. Die erste Studie ist eine Nutzerumfrage bezüglich des Portals. Die zweite Studie besteht aus Experteninterviews um potentielle Kooperationspartner zu identifizieren. Aus den Ergebnissen der beiden Studien werden Handlungsempfehlungen abgeleitet.
Die Entwicklung eines IT-gestützten europäischen Systems zur öffentlichen Auftragsvergabe ist ein wichtiges Ziel der EU um die Effizienz, Transparenz und Wettbewerbsfähigkeit im öffentlichen Beschaffungswesen des europäischen Binnenmarktes zu verbessern. Ein großes Hindernis für die grenzüberschreitende elektronische Abwicklung der Beschaffungsprozesse ist die Heterogenität der nationalen Beschaffungssysteme in Bezug auf technische, organisatorische und rechtliche Unterschiede. Zur Überwindung dieses Hindernisses finanziert die Europäische Kommission einige Initiativen, um grenzüberschreitend Interoperabilität der öffentlichen Beschaffungssysteme zu erreichen. Pan European Public Procurement OnLine (PEPPOL) ist ein solches Projekt, das die Pilotierung eines interoperablen pan-europäischen Systems zur elektronischen Unterstützung der öffentlichen Beschaffungsprozesse als Ziel hat. rnrnService-orientierte Architekturen(SOA) scheinen einen vielversprechenden Ansatz für die Realisierung solch verteilter Architekturen zu liefern, da sie die lose Kopplung und Interoperabilität zwischen Systemkomponenten fördert. Diese Masterarbeit diskutiert daher das SOA(Service-orientierte Architektur)-Konzept und die Fragestellung, wie seine Konzepte, Methoden und Technologien für die Entwicklung von interoperablen IT-Systemen für die elektronische Vergabe öffentlicher Aufträge verwendet werden können. Diese Diskussion wird durch eine praktische Anwendung des diskutierten service-orientierten Ansatzes erweitert, in dem die Konzeption und prototypische Implementierung eines Teilsystems der VCD Domäne durchgeführt wird. Zu diesem Zweck werden wichtige Aspekte bezüglich Interoperabilität und damit verbundener Standards und Technologien untersucht und im Kontext der öffentlichen Auftragsvergabe betrachtet.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
The extensive literature in the data visualization field indicates that the process of creating efficient data visualizations requires the data designer to have a large set of skills from different fields (such as computer science, user experience, and business expertise). However, there is a lack of guidance about the visualization process itself. This thesis aims to investigate the different processes for creating data visualizations and develop an integrated framework to guide the process of creating data visualizations that enable the user to create more useful and usable data visualizations. Firstly, existing frameworks in the literature will be identified, analyzed and compared. During this analysis, eight views of the visualization process are developed. These views represent the set of activities which should be done in the visualization process. Then, a preliminary integrated framework is developed based on an analysis of these findings. This new integrated framework is tested in the field of Social Collaboration Analytics on an example from the UniConnect platform. Lastly, the integrated framework is refined and improved based on the results of testing with the help of diagrams, visualizations and textual description. The results show that the visualization process is not a waterfall type. It is the iterative methodology with the certain phases of work, demonstrating how to address the eight views with different levels of stakeholder involvement. The findings are the basis for a visualization process which can be used in future work to develop the fully functional methodology.
The thesis at hand evaluates Open Source Business Process Management (BPM) Systems in the context of the R4eGov1 Project. The provision of concepts and tools to support and enable interoperability in pan-European networks of pubic administrations is one of the major objectives that R4eGov is aiming at. Thereby a strong focus lies on the interoperability of cross-organizational processes from the viewpoint of modeling, execution and monitoring. BPM can increase the effectiveness and efficiency of cross-organizational processes by restructuring them towards the needs of the entities involved. BPM is dependent on BPM systems that combine technologies of process modeling, business process analysis and execution along with their integration into adequate runtime environments and rule engines. The evaluation that is performed within the thesis investigates how far BPM systems can support several requirements of interoperability that have been developed by the R4eGov project. It also targets at analyzing those BPM system according to generic requirements on BPM and software tools. The investigation is build upon common BPM theories and standards for modeling business processes. It describes the origin and interdependencies of BPM and Workflow Management (WfM), highlighting similarities and differences from the technological and historical perspective. Moreover, it introduces web service standards and technologies that are used to build service-oriented architectures allowing greater flexibility in BPM. In addition the thesis introduces methods and best practices to evaluate software tools. It contains an evaluation framework for BPM tools that has been based on the software product evaluation standard ISO/IEC 14598. The evaluation framework comprises the definition of an R4eGov scenario and a catalogue of criteria for evaluating a set of selected Open Source BPM systems. The definition of the catalogue of criteria is build upon generic requirements on BPM systems and those that are specifically to R4eGov. The chosen methods and the core elements of the evaluation framework will be applied to the selected BPM systems Intalio BPMS,NetBeans IDE, and JBoss jBPM. Finally the results of the applied R4eGov scenario and of the applied catalogue of criteria are being discussed by highlighting individual strengths and weaknesses of the systems.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Diese Arbeit erarbeitet einen Vergleich verschiedener medizinischer Medikamenten-Dispenser. Ein Medikamenten-Dispenser ist eine Vorrichtung, die es erlaubt von einer größeren Menge Medikamente, eine kleinere zu entnehmen. Um den Vergleich durchzuführen wurden 15 Anforderungen an diese Dispenser gefunden. Der Einnahmeerleichterung sind die Anforderungen "Organisation", "Erinnerung" und "Ergonomie" zugeordnet. Zur Compliance, also Therapietreue, gehören "Compliance", "Anpassbarkeit", "Selektivität", "Persistenz", "Funktionalität", "Richtigkeit" und "Spezifität/Sensitivität". Damit stellt diese Kategorie die meisten Anforderungen. Die Kategorie Aufbewahrung sammelt "Hygiene", "Darreichungsformen" und "Robustheit". Schließlich wurden die Anforderungen "Übersichtlichkeit" und "Datenschutz" den sonstigen Anforderungen zugeordnet. Anschließend wurden verschiedene Dispenser-Konzepte zunächst vorgestellt und darauf auf die Erfüllung der Anforderungen hin analysiert. Es wurden folgende Konzepte analysiert: Tablettendose, Wochendispenser, Blister, Schlauchbeutel, MEMS, OtCM, elektronischer Dispenser, App. Nach der Analyse konnten die Dispenser miteinander verglichen werden. Es stellte sich heraus, dass alle Konzepte Mängel aufweisen. Daher entwickelte der Autor ein eigenes Konzept, welches alle Anforderungen bis auf zwei gut bis sehr gut erfüllt. Damit stellt es das mächtigste Konzept dar.