Ausgabe (Heft) zu einer Zeitschrift
Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (270) (entfernen)
Sprache
- Deutsch (270) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Forschen in Koblenz (7)
- Junges Forschen (7)
- Wissenschaft Koblenz (7)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- Datensicherheit (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Informatik (2)
- Kryptographie (2)
- 2D/3D-Segmentierung (1)
- 3-D-Modell (1)
- 3D-Color-Structure-Code (1)
- 3D-RETISEG (1)
- Absorptive capacity (1)
- Allgemeine Systemtheorie (1)
- Annotationsmodell (1)
- Augmented Reality (1)
- Ausstellung (1)
- Authentifizierung (1)
- Authentisierung (1)
- B2B (1)
- Bachelorstudiengang (1)
- Bilderkennung (1)
- CCRDMT (1)
- Campus Koblenz (1)
- Case Study (1)
- Colonoscopy (1)
- Common Annotation Framework (1)
- Darmspiegelung (1)
- Datenbrille (1)
- Datenschutz (1)
- Delphi-Studie (1)
- Dienstleistungsproduktivität (1)
- Dokumentation (1)
- E-Mail (1)
- ERP-Systeme (1)
- Eigenschaften von Teammitgliedern (1)
- Eisenbahn-Unfalluntersuchungsstellen (1)
- Eisenbahnunfalldatenbank (1)
- Eisenbahnunfallkosten (1)
- Enhanced Reality (1)
- Enterprise-Resource-Planning (1)
- Entscheidungsprozess (1)
- Evaluation (1)
- Fernarbeitsregelungen (1)
- Forensik (1)
- Forschungsprojekt KMU 2.0 (1)
- Generation Z (1)
- Gesundheitswesen (1)
- GraphUML (1)
- Herausforderungen (1)
- Homeoffice (1)
- IEC 61131 (1)
- IP-Adressen (1)
- IPTV (1)
- IT security analysis (1)
- IT-Risk-Management (1)
- IT-Sicherheitsmodelle (1)
- Innovation (1)
- Innovationsmanagement (1)
- Interaktionselemente (1)
- Java (1)
- Jungunternehmen (1)
- KSAO (1)
- Kalibrierung (1)
- Klimawandel (1)
- Koloskopie (1)
- Kontextbezogener Dienst (1)
- Krankenhausinformationssystem (1)
- Leistungsmessung (1)
- Logistik (1)
- Masterstudiengang (1)
- Mehrbenutzer-Annotationssystem (1)
- Mobile Arbeit (1)
- Mobiles Umfeld (1)
- National Investigation Bodies (1)
- Netzwerk kleiner und mittlerer Unternehmen (1)
- Nutzen Condition Monitoring (1)
- Online-Überwachung (1)
- Onlinewahl (1)
- Open Innovation (1)
- Open Source (1)
- Outsourcing (1)
- Personal Key Infrastruktur (1)
- Personalausweis (1)
- Polypendetektion (1)
- Pose (1)
- Predictive Maintenance (1)
- Programmiersprachen (1)
- Projekt iCity (1)
- Prozessmanagement (1)
- RDMT (1)
- RMIS (1)
- Railway Diagnostics & Monitoring Technologies (1)
- Regionalbanken (1)
- Risikomanagement-Informationssysteme (1)
- Router (1)
- SOAMIG (1)
- SOMA (1)
- Schutzprofil (1)
- Semantik (1)
- Service-Oriented Architectures (SOA) (1)
- Shared Annotation Model (1)
- Shared Annotations (1)
- Software (1)
- Software-Customizing (1)
- Startups (1)
- Syntax (1)
- Systemtheorie (1)
- Technikfolgenabschätzung (1)
- Technologiefrüherkennung (1)
- Technologiemanagement (1)
- Telearbeit (1)
- Transformation (1)
- Unfallkostenberechnung (1)
- United Internet AG (1)
- Universität Koblenz-Landau (1)
- Virtuelle Teams (1)
- Virtuelle Zusammenarbeit (1)
- Vorausschauende Instandhaltung (1)
- Wachstum (1)
- Wayside Train Monitoring Systems (1)
- Web 2.0 (1)
- XSD (1)
- Zertifikat (1)
- activation functions of neurons (1)
- artifcial neural networks (1)
- behavior of employers (1)
- computer clusters (1)
- deutschsprachiger Markt (1)
- disability-adjusted life year (1)
- elektronische Anwendung (1)
- elektronische Anwendungen (1)
- expectations (1)
- human resources management (1)
- identification of organization (1)
- kollaboratives Lernen (1)
- leader (1)
- leadership (1)
- legacy software (1)
- migration (1)
- mobile phones (1)
- myAnnotations (1)
- nachhaltigkeitsorientierter Führungsstil (1)
- parallel algorithms (1)
- personality characteristics (1)
- polyp detection (1)
- privacy protection (1)
- quality adjusted life year (1)
- reputation of company (1)
- sensor data (1)
- social networks (1)
- traffic survey (1)
- value of a statistical life (1)
Institut
- Zentrale Einrichtungen (171)
- Fachbereich 4 (60)
- Institut für Management (24)
- Institut für Wirtschafts- und Verwaltungsinformatik (22)
- Institut für Anglistik und Amerikanistik (7)
- Institut für Evangelische Theologie (7)
- Institut für Kulturwissenschaft (7)
- Fachbereich 5 (5)
- Institut für Computervisualistik (5)
- Institut für Erziehungswissenschaft (4)
Die Instandhaltungsstrategie Predictive Maintenance, welche sich durch das Treffen von Vorhersagen zum Ausfallverhalten technischer Einheiten auf Basis von moderner Sensortechnik auszeichnet, nimmt vor dem Hintergrund einer Industrie 4.0 eine Schlüsselrolle in Smart Factories ein. In der vorliegenden Arbeit wird der gegenwärtige Forschungsstand zur Strategie evaluiert und ein Überblick der bisherigen Einsatzgebiete gegeben. Mithilfe einer qualitativen Videoanalyse wird die Realisierung in den involvierten Branchen und Unternehmensbereichen sowie die Art der überwachten Güter untersucht. Die analysierten Videoclips wurden von verschiedenen Unternehmen, welche unterschiedliche Blickwinkel auf Predictive Maintenance einnehmen, auf der Plattform YouTube beispielsweise zu Marketingzwecken hochgeladen. Anhand eines vorab festgelegten Kodierplans wurde im Rahmen der Videoanalyse die Kodierung des Videomaterials vorgenommen. Die Ergebnisse zeigen eine überwiegende Anwendung im produzierenden Gewerbe, in dem Predictive Maintenance zur Überwachung von Anlagen und Maschinen, welche an den Produktionsprozessen beteiligt sind, eingesetzt wird. Zudem wird die Strategie in hohem Maße zur Überwachung von Verkehrsmitteln eingesetzt, welche der Güter- und Personenbeförderung auf verschiedenen Verkehrswegen dienen. Resultierend aus der Videoanalyse wird der gegenwärtig hohe Erklärungsbedarf zu Predictive Maintenance sichtbar. Durch die Betrachtung dieser Erklärungen lassen sich die Besonderheiten in Abgrenzung zu anderen Instandhaltungsstrategien erkennen.
Die Forschungsarbeit beschäftigt sich mit der zentralen Frage, welche Erfolgsfaktoren einen Effekt auf eine erfolgreiche Crowdfunding Kampagne haben. Als Untersuchungsfeld stehen deutsche Startup-Unternehmen im Fokus, die bereits erfolgreiche CrowdfundingKampagnen durchgeführt haben.
Zur Beantwortung dieser Frage wird zunächst eine systematische Literaturanalyse durchgeführt, durch die relevante Erfolgsfaktoren für eine Crowdfunding-Kampagne ermittelt werden. Diese Faktoren werden anschließend einem Mixed-Method-Ansatz unterzogen, bei dem qualitative Ergebnisse, basierend auf einer Fallstudienforschung, mit den statistisch ausgewerteten quantitativen Ergebnissen aus der Fragebogenforschung verglichen und überprüft werden. Dabei liegt der Fokus insbesondere auf der Identifikation von signifikanten Wirkungszusammenhängen zwischen den Erfolgsfaktoren und einer erfolgreichen Crowdfunding-Kampagne.
Im Ergebnis konnten diesbezüglich Wirkungszusammenhänge innerhalb dieser Thesis nachgewiesen werden. Sechs der festgestellten Zusammenhänge aus der qualitativen Analyse werden durch die quantitative Analyse bestätigt. Es konnte jedoch keine Signifikanz der Korrelationen festgestellt werden. Auch die Hypothese, dass sich die Erfolgsaussichten einer Kampagne durch eine höhere Anzahl jeweils kombinierter Erfolgsfaktoren erhöhen, wurde sowohl in der qualitativen als auch in der quantitativen Betrachtung widerlegt. Demnach galt es für den Autor der vorliegenden Thesis künftige Forschungsfelder zu definieren, die die ermittelten Ergebnisse erweitern und konkretisieren. Es bleibt beispielsweise einer weiterführenden Forschung überlassen, zu klären, ob bestimmte Kombinationen der Erfolgsfaktoren zu signifikanten Wirkungszusammenhängen führen. Darüber hinaus bietet sich eine weiterführende statistische Regressionsanalyse an, um die kausalen Effekte zu untersuchen und Prognosen für erfolgreiche Crowdfunding-Kampagnen zu formulieren.
Ziel dieser Forschungsarbeit ist die Auswahl und Evaluierung von Open-Source ERPSystemen auf effiziente Anwendbarkeit in Unternehmen zum Zwecke des Aufbaus eines "ERP-Future-Labs", in welchem mittelständische Handelsunternehmen das/die installierte(n) System(e) testen können. Den Projektabschluss bildet hierbei die Installation eines lauffähigen Systems, auf welchem die vom Auftraggeber vorgegebenen Geschäftsprozesse abgewickelt werden können. Ferner sollen die Auftraggeber auf dem System geschult, eine Dokumentation der Software (Installation/Bedienung) und des Projekts erstellt werden.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
Sustainable Leadership
(2023)
Thematik:
Die vorliegende Forschungsarbeit befasst sich mit dem Thema Sustainable Leadership. Dieses Forschungsgebiet der nachhaltigkeitsorientierten Forschung hat in den letzten Jah- ren durch die immer stärker werden Auswirkungen des Klimawandels erheblich an Bedeutung gewonnen. In diesem Zusammenhang rücken Unternehmen immer mehr in den Fokus. Diese müssen nun Wege und Methoden finden, die ihre Arbeitsweise und Prozesse nachhaltiger und umweltschonender gestalten. Die in der vorliegenden Arbeit zu untersuchende Forschungsfrage lautet: „Wie gestaltet sich ein Sustainable Leadership Ansatz in Unternehmen?“ Aufbauend auf dieser übergeordneten Forschungsfrage werden in untergeordneten Forschungsfrage insbesondere Merkmale, Kompetenzen und Verhaltensweisen eines nachhaltigkeitsorientierten Führungsstils betrachtet.
Methodik:
Die Forschungsmethodik der vorliegenden Arbeit ist eine qualitative Inhaltsanalyse nach Mayring (2019). Mittels semistrukturierter Interviews wurden Führungspersönlichkeiten aus Großunternehmen befragt. Auf Grundlage dieses Datenmaterials wurden induktive Kategorien abgeleitet und qualitativ analysiert und interpretiert.
Ergebnisse:
Die Ergebnisse der empirischen Forschung wurden in insgesamt fünf Oberkategorien mit jeweils zwei Unterkategorien zusammengefasst. Es wurden die theoretischen Erkennt- nisse des Forschungsbereichs mit den praktischen Erkenntnissen aus den durchgeführten Interviews ergänzt und interpretiert. Des Weiteren wurden die Ergebnisse aus Sicht einer holistischen Unternehmensperspektive in einem konzeptionellen Ansatz modelliert. Ab- schließend wurden aus den Praxiserfahrungen einige Handlungsempfehlungen formuliert und die Merkmale, Kompetenzen, Verhaltensweisen und Auswirkungen eines nachhal- tigkeitsorientierten Führungsstils diskutiert.
Absicht: Die vorliegende Forschungsarbeit soll einerseits ein Grundverständnis zu Herausforderungen von jungen Unternehmen, die sich im Wachstum befinden, herstellen, indem bisherige Erkenntnisse zu diesem Thema diskutiert werden. Andererseits möchte dieses Forschungsprojekt durch die theoriegeleitete Untersuchung eines Fallbeispiels neue Erkenntnisse zu konkreten Herausforderungen und möglichen Lernprozessen generieren.
Design/Methodologie/Vorgehen: Vom Autor dieser Arbeit wird eine theoriegeleitete Case Study Untersuchung durchgeführt. Dabei werden zwei theoretische Ansätze zugrunde gelegt, die das Phänomen um Herausforderungen von Jungunternehmen im Wachstum abstrahiert darstellen sollen: Einerseits das Spannungsbalancierende Management nach Harald von Korflesch, welches die grundsätzliche Spannungsgeladenheit unternehmerischer Organisationen zum Ausdruck bringt, was wiederum als Ausgangspunkt für konkrete Herausforderungen anzusehen ist. Andererseits das Tipping Points Absorbative Capaci ties Framework von Phelps und Kollegen, welches Herausforderungen (Tipping Points), die junge Unternehmen während ihrer Lebensdauer erleben werden, mit benötigten Fähigkeiten (Absorbative Capacities) in Verbindung bringt. Durch diese Theorien geleitet, werden reichhaltige Daten aus Interviews, Observationen und Dokumenten bei dem Fallbeispiel erhoben und analysiert.
Ergebnisse: Herausforderungen von jungen Unternehmen im Wachstum lassen sich einerseits auf übergeordneter Ebene mithilfe der beiden theoretischen Ansätze beschreiben. Andererseits zeigt die Analyse auch, dass vor allem eine feingranulare, individuelle Betrachtung von Nöten ist, um Herausforderungen und Lernprozesse adäquat abzubilden.
Forschungslimitationen: Die größte Limitation der vorliegenden Untersuchung findet sich im Single-Case Design. Dadurch, dass lediglich ein konkretes Fallbeispiel untersucht wurde, lassen sich die daraus gewonnen Erkenntnisse nicht auf automatisch auf vergleichbare Fallbeispiele replizieren. Durch die gleichzeitige Untersuchung mehrerer Cases könnten die Ergebnisse somit haltbarer gemacht werden.
Originalität/Beitrag: Durch die qualitative Untersuchung von Herausforderungen im Wachstum anhand eines konkreten Fallbeispiels wird ein eingehendes und tiefgreifendes Verständnis über komplexe Wirkungszusammenhänge im Wachstum von jungen Unternehmen geschaffen. Darüber hinaus werden die Annahmen der beiden theoretischen Ansätze an einem realen Fallbeispiel getestet, sodass theoretische wie praktische Implikationen identifiziert werden können.
In dieser Bachelorarbeit wird eine Datenbank für weltweite Eisenbahn-Unfalluntersuchungsstellen erstellt. Sie beinhaltet Kontaktdaten zu jenen Behörden als auch Angaben zu öffentlich gestellten Unfalluntersuchungsberichten. Die Datenbank soll als Grundlage zur Informations- und Datenbeschaffung von Eisenbahnunfällen dienen. Die Angaben, die aus Untersuchungsberichten entnommen werden können, sind wichtige Bestandteile für eine mögliche Bewertung der Wirtschaftlichkeit und Effizienz von Sicherheitstechnologien. Neben den Grundlagen zu Untersuchungsstellen, Untersuchungsberichten und der Effizienzberechnung von Sicherheitstechnologien wird in dieser Arbeit auch eine Auswertung der in der Datenbank vorhandenen Untersuchungsstellen und den gefundenen Untersuchungsberichten präsentiert. Ebenfalls wird der Nutzen der Datenbank von Unfalluntersuchungsstellen erläutert und die möglichen Auswirkungen auf die Eisenbahnsicherheit näher gebracht.
Die folgende Arbeit soll einen Überblick über bestehende Lösungen zur Interaktion in Erweiterten Realitäten (Augmented Reality) schaffen. Hierzu werden anhand dreier grundlegender Betrachtungsweisen unterschiedliche Interaktionskonzepte und -umsetzungen sowohl von der technischen, als auch von der konzeptuellen Seite her, vorgestellt. Neben Fragen der Visualisierung werden unterschiedliche Typen von Benutzungsschnittstellen vorstellt. Den größten Teil nehmen die drei typischen Interaktionsaufgaben Selektion- und Manipulation, Navigation und Systemkontrolle und die damit verbundenen Interaktionstechniken ein. Die Inhalte des Arbeitsberichts beschränken sich auf den Einsatz von Interaktionelementen in Augmented Reality Umgebungen. Dies geschieht in Abgrenzung zu Forschungsarbeiten auf dem Gebiet zu Interaktionstechniken in Virtual Reality Umgebungen (vollimmersiv oder auch desktoporientiert). Zwar standen und stehen viele Interaktionstechniken aus dem Bereich VR in der AR Pate, doch haben sich gerade im Bereich der AR neue Techniken und Konzepte entwickelt. Folglich sollen VR Techniken nur dann betrachtet werden, wenn Sie in AR Anwendungen angewendet wurden bzw. wenn ihre Anwendung sinnvoll erscheint.
Die Bedeutung von Innovation für die Sicherung der Unternehmensexistenz nimmt zu. Gerade im Bereich der Informations- und Kommunikationssysteme zwingen veränderte Rahmenbedingungen, verkürzte Produktlebenszyklen und verstärkter Wettbewerb viele Unternehmen zur Anpassung ihrer Innovationsgeschwindigkeit. Langfristiger Erfolg wird sich nur für die Unternehmen einstellen, denen es gelingt, durch technologische Innovationen ihre Wettbewerbsposition zu festigen oder auszubauen. Dies erfordert einen gesonderten Umgang mit technologischen Innovationen und verlangt nach einem Technologie- und Innovationsmanagement. Dabei ist nicht jede Innovation das Produkt einer einmaligen, möglicherweise gar spontanen Idee. Viele Innovationen entstehen aus der Integration oder Kombination bereits bewährter Technologien. Dies ist besonders interessant, wenn die originären Technologien Branchen entstammen, die nur noch marginale Wachstumsraten aufweisen. Aufbauend auf den Besonderheiten des Fallbeispiels Decision on Demand werden in diesem Artikel existierende Mängel etablierter Vorschläge für ein strategisches Technologie- und Innovationsmanagement identifiziert und die Rolle von modularer Technologieintegration als Alternative diskutiert.
In dieser Arbeit wird ein Datenmodell für Shared Annotations vorgestellt. Basierend auf einem bereits existierenden Datenmodell für Annotationen, wird dieses erweitert um die Möglichkeit der Modellierung von Shared Annotations. Daraufhin werden Funktionen von Shared Annotations erläutert, die über das neue Annotationsmodell möglich sind.
In dieser Arbeit wird ein Mehrbenutzer-Annotationssystem namens myAnnotations vorgestellt, das mit Hilfe von sogenannten "Shared In-situ Problem Solving" Annotationen auf beliebigen Webseiten kollaborative Lern- und Arbeitsszenarien unterstützt. Hierbei wird insbesondere auf die Einsatzmöglichkeiten von "Shared In-situ Problem Solving" Annotationen beim kollaborativen Bearbeiten eines Textes und bei kollaborativen Lernerfolgskontrollen eingegangen.
Ziel des Verbundprojektes 3D-RETISEG ist es, ein optimiertes echtzeitfähiges Soft- und Hardwarepaket zur 2D/3D-Segmentierung und Klassifizierung basierend auf hierarchischen Inselstrukturen, und zur schnellen Volumenvisualisierung sehr großer Volumendaten aus komprimierten Datensätzen zu entwickeln. Die Entwicklungen sollen in konkreten Anwendungsfällen der Forschung und der Wirtschaft als marktreifes Modul in das Softwarepaket VGStudioMax integriert werden. In der Medizin, speziell bei der Segmentierung von Volumendatensätzen, die durch unterschiedliche Tomographietechniken (z.B. CT und MRI) erzeugt werden, liefern zweidimensionale Verfahren häufig eine unzureichende Qualität aufgrund der anisotropen Berücksichtigung der Rauminformationen. Bisher entwickelte dreidimensionale Verfahren sind, neben der der schlechten Verfügbarkeit ihrer Implementierungen, häufig nur für bestimmte Fragestellungen dediziert und daher für andere Anwendungsfälle schlecht adaptierbar. Weiterhin benötigen Verfahren, die gute Ergebnisse liefern, meist eine hohe Laufzeit. Dies ist aber speziell in medizinischen Anwendungen von großem Nachteil, da hier die Qualität der Ergebnisse in letzter Instanz von einem Experten beurteilt wird. Damit das Ergebnis schnell zu benutzerdefinierten Optimierungen durch Veränderung der Verfahrensparameter zur Verfügung steht, sollte ein Verfahren nur sehr kurze Rechenzeiten benötigen. Weist ein Verfahren eine geringe Laufzeit auf, so kann es außerdem intra-operativ eingesetzt werden. Der hier im Projekt verwendete 3D-Color-Structure-Code verspricht, ein besseres und generisches Verfahren zu ermöglichen.
In Enhanced Reality Umgebungen nimmt der Betrachter die Umgebung und zusätzliche, in eine halbdurchsichtige Datenbrille eingeblendete Informationen wahr. Das Kalibrierungsproblem der Datenbrille ist die Aufgabe, die eingeblendete Information mit dem korrekten realen Hintergrund zur Deckung zu bringen. Heutige Datenbrillen sind vergleichsweise klobig und schwer, deshalb kommt es häufig zu leichtem Verrutschen der Brille. Wird dieses Verrutschen nicht in die Position der Einblendung in der Brille einbezogen, so passt die Einblendung nicht mehr zum realen Hintergrund. Dies wird in Abbildung 1.1 exemplarisch dargestellt. Nach initialer Kalibrierung der teildurchsichtigen Datenbrille auf das Auge des Betrachters soll deshalb bei relativer Lageveränderung der Datenbrille zum Auge (durch leichtes Verrutschen) eine Re-Kalibrierung in Echtzeit automatisch erfolgen. Eine automatische Re-Kalibrierung bei Verrutschen wird von uns erstmalig erforscht.
Die Umsetzung von Fernarbeitsregelungen wurde bisher überwiegend in allgemeiner Natur betrachtet. In der vorliegenden Arbeit wird mit Hilfe von Interviews mit Führungskräften, Mitarbeitern und IT-Dienstleistern die Umsetzung von Fernarbeitsregelungen in deutschen Regionalbanken betrachtet. Mit Hilfe der Grounded Theory werden dabei Herausforderungen, Lösungsansätze, Vorteile und Nachteile einer Umsetzung herausgearbeitet. Dabei zeigt sich, dass die Umsetzung zwischen den verschiedenen Banken starke Unterschiede aufweist, was den Fortschritt betrifft. Besonders die Überzeugung, dass eine Umsetzung vorteilhaft für die Bank sowie die Mitarbeiter ist, zeigt sich als Kernproblem in der eher konservativen Bankenlandschaft. Mit Hilfe der Arbeit werden Lösungsansätze gezeigt, um Herausforderungen bewältigen zu können und den Einfluss von Nachteilen zu minimieren. Dadurch dient die Arbeit dazu, Regionalbanken bei einer Umsetzung von Fernarbeitsregelungen zu unterstützen, indem sie Potenziale erkennen können und Möglichkeiten aufgezeigt bekommen, eine Umsetzung zu gewährleisten.
Pose-Tracking
(2009)
Die bildbasierte automatische Bestimmung der Pose, d. h. der Position und Blickrichtung, einer Kamera in derWelt, ist eine relevante, aber immer noch unzureichend gelöste Aufgabe im Rechnersehen. In dem diesem Bericht zugrunde liegenden Projekt werden höhere markante Merkmale in den Bildern sicherer lokalisiert, sowie deren semantische Signifikanz vom Rechner bestimmt. Eine Posebestimmung wird durch eine Registrierung der elementaren Bestandteile dieser markanten Merkmale im Bild mit Merkmalen im 3-D-Modell erreicht. Dazu werden neue Algorithmen zur Detektion, Lokalisation und Registrierung der markanten Merkmale entwickelt bzw. vorhandene Algorithmen weiter verbessert. Modelle, wie sie aus der Rekonstruktion von Mehrfachansichten entstehen, werden durch weitere Semantik angereichert. Als Anwendungsszenario wird die Posebestimmung auf dem Campusgelände unter Verwendung von Bildern und einem semantischen CG-Modell des Campus gewählt. Die allgemeinen Verfahren werden an diesem Beispiel getestet und ihre Tragfähigkeit wird in Experimenten belegt. Im modularen System entstehen problemunabhängige Einzelbausteine zur Detektion markanter Merkmale und zur 3-D-Rekonstruktion und Posebestimmung aus Merkmalen, Punkten und Linien. Damit wird belegt, dass eine robuste Detektion markanter Merkmale möglich ist und zu einer effektiven Rekonstruktion und Posebestimmung auch in teilweise wenig strukturierten Außengebieten genutzt werden kann.
Das Ziel der vorliegenden Arbeit ist es, einen Überblick über das Vorgehen, den Aufbau und die Methodenvielfalt im Bereich der Technologiefrüherkennung zu bieten, einen Einblick in das Umfeld der Railways Diagnostics and Monitoring Technologies (RDMT), deren Technologiemanagement und den branchenspezifischen Anforderungen an die Technologiefrüherkennung (insbesondere im Bereich von KMU) zu geben. Kombinierend daraus wird eine Handlungsempfehlung zur konkreten Nutzung der Forschungsergebnisse in Unternehmen dieser Größenordnung und Branche gegeben. Dazu wurden Literaturrecherchen im Bereich des Innovationsmanagements und des Railway Umfelds betrieben und ein Experte eines mittelständigen Technologieherstellers der RDMT-Branche interviewt. Die wichtigste Erkenntnis dabei ist, dass eine einzelne Methode den Anforderungen nicht gerecht wird, und eine Kombination von Methoden und Organisationsformen für eine effektive Technologiefrüherkennung notwendig ist.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Im Laufe der letzten Jahre hat sich der typische Komplex an kritischen Erfolgsfaktoren für Unternehmen verändert, infolgedessen der Faktor Wissen eine wachsende Bedeutung erlangt hat. Insofern kann man zum heutigen Zeitpunkt von Wissen als viertem Produktionsfaktor sprechen, welcher die Faktoren Arbeit, Kapital und Boden als wichtigste Faktoren eines Unternehmens ablöst (vgl. Keller & Yeaple 2013, S. 2; Kogut & Zander 1993, S. 631). Dies liegt darin begründet, dass aktive Maßnahmen zur Unterstützung von Wissenstransfer in Unternehmen höhere Profite und Marktanteile sowie bessere Überlebensfähigkeit gegenüber Wettbewerbern ohne derartige Maßnahmen nach sich ziehen (vgl. Argote 1999, S. 28; Szulanski 1996, S. 27; Osterloh & Frey 2000, S. 538). Der hauptsächliche Vorteil von wissensbasierten Entwicklungen liegt dabei in deren Nachhaltigkeit, da aufgrund der immateriellen Struktur (vgl. Inkpen & Dinur 1998, S. 456; Spender 1996a, S. 65 f.; Spender 1996b, S. 49; Nelson & Winter 1982, S. 76 ff.) eine Nachahmung durch Wettbewerber erschwert wird (vgl. Wernerfelt 1984, S. 173; Barney 1991, S. 102).
Dieses Dokument schlägt ein Konzept für eine Personal Key Infrastruktur in iCity vor. Über ein Trust Center (TC) ausgestellte Zertiffkate gewährleisten einen sicheren Schlüsselaustausch mit nachweisbarer Authentisierung des Kommunikationspartners, Abhörsicherheit sowie Unverf älschtheit und Nachweisbarkeit der Nachrichten. Das gemeinsam vertrauensw ürdige TC muss während der Kommunikation nicht erreichbar sein. Es erhält lediglich öffentliche Informationen. Das Konzept stellt mehrere Sicherheitsstufen vor, die sichere Identiffkation und Anonymität unterschiedlich gewichten.
Das Forschungsprojekt KMU 2.0 zielt auf die Gestaltung einer modernen Arbeitswelt ab, in der die Mitarbeiter eines Netzwerkes kleiner und mittlerer Unternehmen (KMU) ihre Kompetenzen, Kreativität und Ideen in einen unternehmensübergreifenden Austausch einbringen, um innovative Lösungen für Probleme aus dem Berufsalltag gemeinsam zu generieren. Hierüber gilt es neue Wege und Szenarien für das Management der unternehmensübergreifenden Zusammenarbeit in KMU-Netzwerken zu erforschen, mit Hinblick auf die Entstehung und Umsetzung von Innovationen für Probleme aus der modernen Arbeitswelt. Fokussiert wird dabei auf den Einsatz von Web 2.0-Technologien, die als Instrument hinsichtlich ihres Unterstützungspotentials bei der kooperativen Generierung von innovativen Lösungen untersucht werden. Zentrale Fragestellung dabei ist, ob der Einsatz von Web 2.0 in einem Netzwerk von KMU den Austausch innovativer Ideen durch Vernetzung der Mitarbeiter und ihres kreativen Potentials fördert. Praxispartner ist das WirtschaftsForum Neuwied e.V., ein im nördlichen Rheinland-Pfalz angesiedeltes Unternehmen, das aus ca. 115 Mitgliedern und 10.000 Mitarbeitern besteht und durch eine heterogene Struktur an Unternehmen unterschiedlichster Größen und Branchen sowie verschiedenster Leistungsangebote charakterisiert ist.
Virtuelle Teams verbreiten sich weltweit immer mehr. Die Covid-19 Pandemie und die damit verbundene Homeofficepflicht sorgten in nationalen Unternehmen für die Zunahme virtueller Zusammenarbeit. Diese virtuellen Teams bleiben oftmals auch nach Aufhebung der pandemiebedingten gesetzlichen Beschränkungen bestehen. Um eine erfolgreiche Zusammenarbeit in diesen Teams zu erreichen, sind Kenntnisse zu den benötigten Eigenschaften und Fähigkeiten von Teammitgliedern von großer Bedeutung.
Um diese zu untersuchen, werden in dieser Arbeit sieben Experteninterviews mit Teammitgliedern virtueller Projektteams in der IT-Branche geführt und mithilfe qualitativer Inhaltsanalyse ausgewertet. Die ExpertInnen stammen aus drei deutschen Dienstleistungsunternehmen. Die Ergebnisse werden anhand des KSAO-Modells untersucht und nach der deduktiven Zuordnung zu den vier Kategorien „Wissen“, „Fertigkeiten“, „Kompetenzen“ und „Andere Merkmale“ jeweils durch induktive Kategorienbildung in Unterkategorien aufgeteilt. Dabei ergeben sich insgesamt 34 Kategorien, die für die virtuelle Zusammenarbeit relevant sind.
Mit den gewonnenen Erkenntnissen trägt die vorliegende Arbeit einen wichtigen Teil zur Forschung im Bereich der virtuellen Teams bei. Außerdem liefert sie Unternehmen, Führungskräften und dem Personalmanagement Anhaltspunkte für die Bewertung von BewerberInnen, die Auswahl geeigneter Teammitglieder, die Entwicklung von Schulungen und die gezielte Verbesserung virtueller Zusammenarbeit.
"We've allways been in a culture where more is more, and suddenly we're in a culture whrere less is a better quality of life. It's pretty revolutionary." - Bill Stewart
Der Wandel der Gesellschaft brachte innerhalb des vergangenen Jahrzehnts einige Veränderungen mit sich, darunter auch die Tendenz zum bewussteren Konsum sowie nachhaltigeren Umgang mit Ressourcen. Traditionelle Denkmuster rückten immer weiter in den Hintergrund, Stereotypen wurden durchbrochen und die Bewertungsmaßstäbe neu definiert. Und so sind wir in einer Zeit angekommen, in der weniger Besitz plötzlich höheres Ansehen genießt und der Minimalismus zum neuen Trend wurde. Vom Wandel gesellschaftlicher Normen blieb auch der wirtschaftliche Sektor nicht unberührt, und so nahm das Modell der Sharing Economy in den vergangenen Jahren eine rasante Entwicklung auf dem Markt. Vereinfacht kann das Geschäftsmodell als das Teilen ungenutzter Ressourcen gegen (non-) monetäre Anreize beschrieben werden. Die vorliegende Bachelorarbeit untersucht die Anwendbarkeit der Sharing Economy auf den B2B-Sektor. Dabei wurden die Vor- und Nachteile des Geschäftsmodells erfasst und daraus die Barrieren und Chancen der Implementierung für Unternehmen abgeleitet. Ferner wurde untersucht, welche Rahmenbedingungen aus dem Konsumentenbereich sich zur Implementierung im Geschäftsbereich eignen und welche neuen Faktoren berücksichtigt werden müssen.
Hierfür wurde auf Grundlage der Literaturanalyse eine Modellierung des B2C-Konzeptes vorgenommen. Basierend darauf wurden Interviews mit den Führungsmitarbeitern und der Geschäftsführung eines mittelständischen IT-Unternehmens durchgeführt. Nach der an Mayring (2002) angelehnten Auswertung, wurde mithilfe der Ergebnisse ein B2B- sowie ein Entscheidungsmodell aufgestellt und Antworten auf die Forschungsfragen gegeben.
Aus den Interviewergebnissen konnten zahlreiche Voraussetzungen aus dem privaten Sharing-Umfeld auf das B2B-Modell übertragen sowie weitere relevante Faktoren identifiziert werden. Mit Hilfe des Entscheidungsmodells konnte dargestellt werden, unter welchen Rahmenbedingungen eine Umsetzung des Geschäftsmodells im B2BUmfeld sinnvoll wäre und welche Herausforderungen berücksichtigt werden müssen.
Die Messung der Produktivität von Dienstleistungen ist trotz zunehmender Relevanz immer noch ein wenig durchdrungenes Forschungsfeld. Ursachen hierfür sind vor allem in den besonderen Merkmalen von Dienstleistungen - Immaterialität und Integrativität - zu suchen. Eine typische Dienstleistung der B2B Softwarebranche ist die Anpassung von Systemen an die Bedürfnisse des Kunden - das sogenannte Customizing. Die Ausschöpfung des Customizing-Potentials von Standardsoftware und -produkten und eine stärkere Einbeziehung des Kunden in Innovationsprozesse werden jedoch dadurch erschwert, dass die Produktivität dieser Dienstleistung nur unzureichend mess- und somit bewertbar zu sein scheint.
Der vorliegende Beitrag beschreibt die Entwicklung eines Modells zur Messung der Produktivität von Dienstleistungen auf der Basis unterschiedlicher Vorstudien im Rahmen des CustomB2B Projektes an der Universität Koblenz-Landau.
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
Grundlagen der Systemtheorie zur Anwendung transdisziplinärer Verfahren der Technikfolgenabschätzung
(2020)
Der technische Fortschritt ist in besonderem Maß dafür verantwortlich wie Menschen den Alltag bestreiten. Durch technische Innovationen ergeben sich Gestaltungsmöglichkeiten in allen Lebensbereichen, wodurch Menschen einem kontinuierlichen Anpassungsprozess an neue Produkte, Verfahren und Rahmenbedingungen unterliegen. Dieser Umstand wird im heutigen Zeitalter der zunehmenden Umstellung analoger Verfahren auf digitale Prozesse besonders deutlich. Dabei ist nicht zuverlässig vorhersehbar, ob die technischen Neuerungen nur Chancen aufzeigen oder auch Risiken mit sich bringen. Im Forschungsbereich der Technikfolgenabschätzung wird untersucht, welchen Einfluss technische Neuerungen auf die Gesellschaft haben. Erwünschte und unerwünschte Folgen der Technik sollen zuverlässig prognostiziert werden, sodass eine frühzeitige Reaktion ermöglicht wird. Im Kern dieser Arbeit wird die projektbasierte Vorgehensweise nach MITRE für die Technikfolgenabschätzung erörtert. Gleichzeitig wird untersucht, ob und wie die Ansätze der Systemtheorie für eine Verbesserung der Prognosen in der Technikfolgenabschätzung eingesetzt werden können. Damit wird der Frage nachgegangen, wie sicher Prognosen in diesem Kontext sein können und ob durch den adäquaten Einsatz systemtheoretischer Denkweisen ein Mehrwert in Form zuverlässigerer Prognosen geschaffen werden kann. Als methodische Vorgehensweise wurde eine Literaturanalyse durchgeführt. Zusätzlich wurde ein Experte in einem Interview und weitere per E-Mail befragt, sodass ein Einblick in die praktische Arbeitsweise erlangt werden konnte. Aufbauend auf der erarbeiteten Projektstruktur wurde in den Projektteilen überprüft, ob durch den bewussten Einsatz systemtheoretischer Grundgedanken signifikante Erkenntnisse erlangt werden können. Durch die Analysen in dieser Arbeit hat sich gezeigt, dass die Ergebnisse einer Technikfolgenabschätzung einen höheren Sicherheitsgehalt aufweisen können als eine Untersuchung ohne Berücksichtigung systemtheoretischer Denkweisen. Insbesondere das Erlangen eines Systemverständnisses in der Konzeptionsphase kann maßgeblich für eine erfolgreiche Technikfolgenabschätzung sein. Diese Masterarbeit stellt die theoretische Bearbeitung des Themenkomplexes einer Kombination aus Technikfolgenabschätzung und Systemtheorie dar. Eine Anwendungsprüfung der Resultate in der praktischen Arbeit der Technikfolgenabschätzung wird empfohlen.
Social Media is a world-wide phenomenon which has drastically changed the way humans communicate, the availability of information, as well as a crucial tool for various businesses. This has also heavily influenced the sporting community which presents the focus of this study. The work aims to examine the self-presentation, on the media platform Instagram, of footballers from FC Bayern Munich, to gain an understanding of how athletes use this medium as a communication and marketing tool to build their brand. Instagram was chosen due to it being a platform on which users post visual images as their primary communication mechanism. There are many social media uses for professional athletes. From the sharing of personal lives, professional highlights, and opinion, to product placement and endorsements, athletes are closer to fans and consumers than ever before. Social media also puts the athlete in charge of the message, image, and content regarding their careers and their lives Ten footballers were selected against specified criteria and examined against Goffman’s theory of self-presentation (1959) to formulate the research question: “Which forms of presentation of football players of FC Bayern Munich ́s Instagram posts achieve the highest user engagement?”
Empirical research analysed the effect of different visual and contextual forms on user engagement rates.
Through the works literature review, individual hypotheses were derived and tested in a quantitative standardized media content analysis. The first 50 Instagram posts of each of the ten FC Bayern Munich football players with the most followers were analyzed using IBM SPSS Statistics software. From the visual aspect seven photo categories were developed which were examined in relation to their engagement rate with the posts. Within the contextual framework, the importance and effect of the number of tags and hashtags used were analyzed.
Findings revealed differences to previous research on an athlete ́s use of written social media outlets such as Facebook and Twitter, as the majority of visual images posted by athletes were in sporty settings, thus reflecting frontpage-performance strategies according to the self-presentation theory. Further results showed that a greater utilization of hashtags and tags do not correlate with a higher impact on the engagement rates. Personal brand management implications for athletes are examined in greater detail in the discussion.
Bei dem für dieses Schutzprofil (engl. "Protection Profile" im Folgenden PP genannt) herangezogenen Evaluationsgegenstand (im Folgenden EVG genannt) handelt es sich um einen Router, der einen Schutz gegen Online-Überwachung bietet. Der EVG-Typ ist hierbei ein handelsüblicher Internet-Router, der in Privathaushalten und kleineren Firmen eingesetzt wird. Der EVG umfasst den gesamten Router, so dass sowohl die Hardwarekomponenten als auch die Softwarekomponenten betrachtet werden. Es ist dabei irrelevant, ob es ein Modell mit integriertem Breitband-Modem ist oder ob dieses separat angeschlossen ist.
Generation Z strömt derzeit mit neuen Wertvorstellungen und hohen Ansprüchen in die Arbeitswelt ein, was Führungskräfte vor eine große Herausforderung stellt. Um sich im Fachkräftemangel zu behaupten, die jungen Talente zu rekrutieren sowie langfristig an das Unternehmen zu binden, müssen Unternehmen, insbesondere Führungskräfte die Erwartungen und Anforderungen der Generation Z kennen und diesen gerecht werden. Während die Erwartungen und Anforderungen der Vorgängergenerationen bereits analysiert wurden, sind die der jungen Generation Z unbekannt.
Um die Erwartungen und Anforderungen der Generation Z an Führungskräfte und deren Verhaltensweisen zu identifizieren, wurde eine qualitative Forschungsmethode angewandt, indem fünf Experteninterviews mit Studierenden aus der Generation Z geführt wurden. Diese wurden anschließend mithilfe einer qualitativen Inhaltsanalyse anhand von Kategorien ausgewertet.
Die junge Generation stellt hohe Erwartungen an Führungskräfte sowie deren Verhalten ihnen gegenüber. So fordern sie nicht nur klare Vorgaben hinsichtlich der an sie gestellten Erwartungen, sondern zeigen auch das Bedürfnis nach regelmäßigem Austausch und Feedbackgesprächen mit ihrem Leader. Führung sollte für Generation Z immer auf Augenhöhe stattfinden, geprägt von einer offenen Kommunikation sowie einem wertschätzenden Umgang. Zudem sollte die Führungskraft als Ansprechpartner bei Problemen und Fragen für die Generation Z zur Seite stehen.
Die dargestellten Ergebnisse der Arbeit leisten einen wichtigen Beitrag für Wissenschaftler im Forschungsfeld Generationsmanagement und helfen zudem Entscheidungsträgern im Personalmanagement die Anforderungen und Erwartungen der jungen Generation Z zu erfüllen. Somit profitieren sie nicht nur im Recruiting davon, sondern können die jungen Talente möglicherweise langfristig an das Unternehmen binden.
Neue Technologien und Innovationen stellen heutzutage wichtige Schlüsselelemente der Wachstums und Erfolgssicherung von Unternehmen dar. Durch einen in Geschwindigkeit und Intensität immer schneller zunehmenden Wettbewerb nehmen Innovationen eine immer zentralere Rolle im Praxisalltag von Unternehmen ein. Dieser technische Fortschritt treibt auch in der Wissenschaft das Thema des Innovationsmanagements in den letzten Jahrzehnten immer stärker voran und wird dort ausgiebig diskutiert. Die Bedeutung von Innovationen wächst dabei ebenfalls aus der Sicht der Kunden, welche heutzutage viel differenzierter als früher Produkte und Dienste nachfragen und somit Unternehmen vor neue Herausforderungen stellen. Überdies stellen Innovationen heute ein entscheidendes Bindeglied zwischen Marktorientierung und erhofften Unternehmenserfolg dar. Seit einigen Jahren lässt sich eine Öffnung der Unternehmensgrenzen für externe Quellen wie Kunden, Zulieferer, Universitäten oder teilweise auch Mitbewerber erkennen. Diese Thematik wird innerhalb der betriebswirtschaftlichen Forschung unter dem Begriff Open Innovation diskutiert. Das Paradigma eines innerbetrieblichen, geschlossenen Forschungsund Entwicklungsbetriebs wird darin zugunsten eines gemeinsamen, kollaborativen Prozesses zwischen Unternehmen und den oben erwähnten verschiedenen Partnern aufgelöst. Diese Öffnung des unternehmensinternen Innovationsprozesses erforscht die Wissenschaft insbesondere in Bezug auf die frühen Phasen der Produktentwicklung mit der Fragestellung, inwieweit kollaborative Prozesse den Ideenreichtum und dadurch die Innovationskraft eines Unternehmens erhöhen können. Zahlreiche Fallstudien sind in denletzten Jahren entstanden, welche sich dem Thema Open Innovation angenommen haben. Zumeist wurden dabei einzelne Unternehmen bei der Einführung der "Lead User" Methodik begleitet, an dessen Ende oft wertvolle Ideen für die entsprechenden Unternehmen generiert werden konnten. In den späten Phasen der Produktentwicklung ist eine entsprechende Kundenfokussierung durch die Möglichkeiten der Produktindividualisierung vergleichbar erforscht, wie es sich durch die umfassende Forschung hinsichtlich einer Produktindividualisierung zeigt. Trotz dieser Erkenntnisse hinsichtlich der Potenziale von offenen Innovationsprozessen nutzen viele Unternehmen das Wissen ihrer Kunden unzureichend. Dies erscheint zunächst unverständlich, da die Forschung aufzeigt, dass die Kundeneinbindung als eine vielversprechende Ressource für erfolgreiche Innovationen dienen kann. Die Managementforschung beschäftigt sich dennoch erst in den letzten Jahren verstärkt mit geöffneten Innovationsprozessen " eine Ausnahme stellen dabei jedoch die frühen Arbeiten von Hippel- dar. Bisherige Forschungsergebnisse gehen davon aus, dass eine Einbindung des Kunden besonders in den vorderen und hinteren Phasen des Innovationsprozesses stattfindet. Die Motivation dieser Arbeit liegt nun darin, konkrete Maßnahmen entlang des gesamten Innovationsprozesses zu identifizieren und diese auf ihre Anwendbarkeit hin zu prüfen. Gegenstand der Betrachtungen ist die technologische Innovation Internetprotokoll basiertes Fernsehen (IPTV), welches klassische unidirektionale Informationsangebote " analog zu den Entwicklungen des Internets " zu bidirektional nutzbaren Angeboten ausweitet.
Informatik hautnah erleben
(2010)
In vielen Köpfen - sowohl bei Erwachsenen wie auch bei Schülern - geistert der Glaube, dass Informatik die Wissenschaft der "Computerlehre" ist. Schon der berühmte Satz "In der Informatik geht es genauso wenig um Computer wie in der Astronomie um Teleskope", der dem Informatiker Edsger W. Dijkstra (1930 - 2002) zugeschrieben wird, drückt historisch schon früh den Gedanken aus, dass die Informatik den Computer nur als ein Hilfsmittel und Medium nutzt, genauso wie die Mathematik den Taschenrechner. Die Fehlvorstellung, die leider auch häufig in den Schulen vermittelt wird, zeigt, dass hier Aufklärung nötig ist.
In this article we analyze the privacy aspects of a mobile sensor application used for recording urban travel patterns as part of a travel-survey service. This service has been developed and field-tested within the Live+Gov EU Project. The privacy analysis follows a structured approach established in. Eight privacy recommendations are derived, and have already led to corresponding enhancements of the travel-survey service.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
E-Mail-Forensik - IP-Adressen und ihre Zuordnung zu Internet-Teilnehmern und ihren Standorten
(2010)
Wesentliches Element des weltweiten Internets bildet der Adressraum der IP-Adressen, die den am Internet teilnehmenden Geräten ("IP-Hosts") zugewiesen sind. IP-Adressen (der Version 4) bestehen aus vier Zahlen zwischen 0 und 255 und repräsentieren viermal acht Bits, mit welchen insgesamt über vier Milliarden Adressen unterschieden werden können. Die zentrale Organisation IANA vergibt an fünf regionale Adressregistraturen Adressräume, welche sie an lokale Registraturen, Telecomanbieter und Internet-Service-Provider weiter verteilen. Diese Adressverteilung ist relativ stabil. Diese Zuordnung ist öffentlich zugänglich über so genannte whois-Abfragen aus Datenbanken der regionalen Registraturen. Die Internet-Service-Provider (ISP) vergeben IP-Adressen an ihre Nutzer. Die Zuordnung wird teilweise statisch mit langfristiger Bindung vorgenommen und teilweise dynamisch nur für die Dauer einer Datenverbindung. Die dynamische Adressverwaltung erlaubt es Internet-Service-Providern, mehr Nutzer zu bedienen, als ihr Adressraum an verschiedenen IPAdressen zulässt, da die Adressen von Geräten, die aus dem Internet ausscheiden, nicht wie bei der statischen Vergabe frei gehalten werden müssen, sondern an sich neu mit dem ISP verbindende Geräte vergeben werden können. In internen Tabellen verwalten die Internet-Service-Provider die Zuordnung von IP-Adressen zu den konkreten Anschlüssen ihrer Nutzer, außerdem protokollieren sie, welcher Anschluss wann welche IP-Adresse hatte . Diese Daten sind öffentlich nicht zugänglich, sondern müssen bei Bedarf mit gesetzlich geregelten Einschränkungen (Datenschutz) erfragt werden.
Im Gesundheitswesen geht es nicht nur um die Vertraulichkeit von Patientendaten, sondern auch um ihre Integrität, von der die richtige Behandlung und Pflege des Patienten abhängen. Eine Maßnahme zur Absicherung eines Krankenhausinformationssystems (KIS) gegen unautorisierte Angreifer ist eine flexibel organisierte Zugriffskontrolle zum Schutz der patientenbezogenen Daten. Dieser Artikel beschreibt das Konzept einer rollenbasierten Zugriffskontrolle (RBAC - Role Based Access Control) und seine Einsatzmöglichkeiten im Gesundheitswesen.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
IT-Sicherheitsmodelle
(2008)
Es wird erklärt, was ein Beschreibungsmodell ist, wie IT-Sicherheitsmodelle grundsätzlich aufgebaut sind und welchem Zweck sie dienen. Zur Illustration werden vier verschiedene IT-Sicherheitsmodelle vorgestellt, die historisch zu unterschiedlichen Zeiten entstanden sind. Sie passen zu vier verschiedenen typischen Anwendungsumgebungen und charakterisieren die zugehörigen Sicherheitsanforderungen. Vorgestellt werden das Bell-LaPadula-Modell zum Vertraulichkeitsschutz in hierarchischen Institutionen, das Clark-Wilson-Modell zum Integri-tätsschutz von Geschäftsanwendungen, das Chinese-Wall-Modell zum Konkurrentenschutz von Unternehmen und das Gleichgewichtsmodell zum Schutz verbindlichen Handelns im offenen Internet.
Unfälle verursachen jährlich einen hohen volkswirtschaftlichen Schaden für die betroffenen Personen, die Unternehmen und den Staat. Die genaue Bezifferung der Höhe des Schadens stellt ein großes Problem dar, weil die wissenschaftlichen Studien mit ihren unterschiedlichen Berechnungsmodellen stark voneinander abweichen. Angesichts der geringen Unfallhäufigkeiten im Schienenverkehr ist die Kostenberechnung in wenigen wissenschaftlichen Untersuchungen von Bedeutung. Das Ziel dieser Arbeit ist, einen Überblick über die Vorgehensweisen bei der Berechnung von Unfallkosten zu geben und die auftretenden Probleme herauszustellen. Grundsätzlich teilen sich die Unfallkosten in Personen- und Sachschäden auf. Bei den Personenschäden werden neben den materiellen Schäden, die immateriellen Schäden mitbetrachtet. Dies führt zu Schwierigkeiten in der Bewertung, weil die Verluste schwer zu beziffern sind. Zu den Hauptkomponenten der Personenschäden zählen in Unfallkostenmodellen die Schäden für den Ausfall der menschlichen Arbeitskraft, die Kosten für die medizinische Versorgung und die Kosten zur Wiederherstellung der Rechtslage. Ein Modell zur Berechnung von Personenschäden im Schienenverkehr, das ausschließlich die Schäden in Deutschland einbezieht, liegt zum jetzigen Stand der Forschung nicht vor. Vom Bundesamt für Straßenwesen (BASt) wurde ein umfangreiches Kostenmodell zur Berechnung von Unfallkosten entwickelt. Das Ergebnis dieses Modells ist, dass der Kostensatz für einen Getöteten 1,1 Millionen Euro, für einen Schwerverletzten 106.000 Euro und für einen Leichtverletzten 5.000 Euro beträgt. In dieser Arbeit wird aufgezeigt, dass dieses Modell in vielen Bereichen für den Schienenverkehr von Bedeutung ist und in diesem Kontext angewendet werden kann. Neben diesem Modell, welches auf statistisch erhobenen Kennzahlen beruht, werden verschiedene Ansätze untersucht, die den Wert eines menschlichen Lebens beschreiben. Die untersuchten Modelle unterscheiden sich in ihrer Berechnungsweise und Ergebnisse weichen voneinander ab. Bei der Berechnung der Sachschäden sind die Anschaffungskosten eines Objekts entscheidend. Zur Eingrenzung der Sachschäden liegt der Fokus in dieser Arbeit auf den Beschädigungen an der Infrastruktur und am Zugmaterial. Mithilfe des Kostenkennwertekatalogs der Deutschen Bahn AG können die Anschaffungskosten für bestimmte Infrastrukturkomponenten ermittelt werden und bilden die Grundlage für die Schadensberechnung.
Process Commodities : Entwicklung eines Reifegradmodells alsBasis für Outsourcingentscheidungen
(2009)
Der vorliegende Arbeitsbericht behandelt die Anforderungen an Prozessmanagement als Basis für Outsourcingentscheidungen. Zu dieser Fragestellung erschien im Jahr 2005 ein Artikel von Thomas Davenport mit dem Titel "The Coming Commoditization of Processes". In diesem wird auf das Fehlen eines einheitlichen Verständnisses über Inhalte und Beschreibungen von Prozessen und Prozessschritten, Leistungsindikatoren sowie Prozessmanagementpraktiken hingewiesen. Der vorliegende Arbeitsbericht versucht diese Lücke in Teilen zu schließen, indem er ein Reifegradmodell für Prozessmanagement vorstellt. Mit Hilfe des Modells können Unternehmen einschätzen, in wieweit sie vorhandene Methoden des Prozessmanagements umsetzen und damit die Grundlage für Prozessoutsourcing geschaffen haben.
This paper proposes model-driven techniques to extend IBM- SOMA method towards migrating legacy systems into Service-Oriented Architectures (SOA). The proposal explores how graph-based querying and transformation techniques enable the integration of legacy assets into a new SOA. The presented approach is applied to the identification and migration of services in an open source Java software system.
ERP-Systeme stellen einen wichtigen Kompetenzbereich der Forschungsgruppe Betriebliche Anwendungssysteme (FG BAS) am Institut für Wirtschafts- und Verwaltungsinformatik (IWVI) der Universität Koblenz-Landau dar. In enger Zusammenarbeit mit Partnern aus Wirtschaft und Wissenschaft vermittelt die Forschungsgruppe sowohl Grundlagenforschung als auch praxisbezogenes Wissen an Studierende und Unternehmen. Der vorliegende Arbeitsbericht "Künftige Anforderungen an ERP-Systeme: Deutsche Anbieter im Fokus" beleuchtet auf vier Ebenen die Architektur, die verwendete Technologie, die praktischen Einsatzmöglichkeiten und die allgemeine Marktsituation aktueller ERP-Systeme auf dem deutschsprachigen Markt. Ein besonderer Dank geht in diesem Zusammenhang an Peter Herzog (zum damaligen Zeitpunkt Marketingleiter der Bison AG), der die Idee einer solchen Untersuchung hatte und die FG BAS mit deren Durchführung betraute. Die Studie wurde vom Sommer 2007 bis zum Frühling 2008 von Norbert Frick im Rahmen seiner Diplomarbeit im Fach Informatik durchgeführt. Die Auswertung der Ergebnisse wurde inhaltlich und wissenschaftlich betreut von Prof. Dr. Petra Schubert. Die Arbeit entstand aufgrund von Literaturrecherchen, schriftlichen Umfragen und Telefoninterviews mit ERPAnbietern.
Das Ziel dieser Bachelorarbeit ist es, Modelle zur Kalkulation von Personenschäden für die Eisenbahnunfallkostenberechnung zu ermitteln und diese auf die Eignung zur Anwendung auf eine Eisenbahnunfalldatenbank auszuwerten. Die in dieser Arbeit betrachteten Kalkulationsmodelle für verletzte Unfallopfer wurden im Rahmen einer Literaturrecherche ermittelt und mithilfe von Durchschnitts- und Beispielwerten auf ihre Anwendbarkeit im Kontext der Eisenbahnunfalldatenbank überprüft. Für die Untersuchung zu getöteten Unfallopfern wurden Werte aus zwei bestehenden Literaturrecherchen kombiniert und mit den Werten aus der Eisenbahnunfalldatenbank verglichen. Dabei wurde festgestellt, dass für die Kategorie der schwerverletzten Unfallopfer eine Kalkulation durchgeführt werden kann, welche mit spezifischeren Daten über die Unfallopfer exaktere Ergebnisse als die in der Unfalldatenbank verwendete Kalkulation liefert. Die Kalkulation von leichtverletzten Unfallopfern kann dagegen nicht durch reine Personenschadenskalkulation erfolgen, da der Anteil dieser an der durch den Verursacher zu tragenden Summe einen zu kleinen Anteil aufweist. Bei der Kalkulation zu getöteten Unfallopfern kam es zu Problemen durch die Methodik der meisten Studien.
Digital happiness
(2016)
Emotionen in der digitalen Welt gewinnen durch die immer weiter voranschreitende Digitalisierung in den vergangenen Jahren mehr an Bedeutung. Sowohl im Alltag als auch im Berufs- und Bildungsumfeld ist der Einsatz von Medien fast unumgänglich. In dieser Arbeit wird das noch relativ unbeachtete Thema „Digital Happiness“ genauer betrachtet. In der Literatur werden Emotionen in der digitalen Welt verstärkt untersucht, aber gerade zu dem Thema „Digital Happiness“ gibt es bisher noch nicht viele Erkenntnisse.
In diesem Forschungspraktikum werden die Unterschiede in der Kommunikation von Gefühlen in der computergestützten Kommunikation und der face-to-face Kommunikation, sowie welchen Einfluss diese haben, näher untersucht. Aber auch die Wahrnehmung und Äußerung von Emotionen in der realen und digitalen Welt werden betrachtet. Es wird eine erste Definition von „Digital Happiness“ erarbeitet und ein Modell mit den zugehörigen Determinanten, welche „Digital Happiness“ beeinflussen, entwickelt.
Um diese Ziele zu erreichen, wird eine Literaturanalyse nach der Methode von Webster & Watson (2002) durchgeführt. Hierfür werden 15 Artikel ausgewählt und genauer analysiert, um den aktuellen Stand der Forschung darzustellen. Diese werden in einer Konzeptmatrix eingeordnet. Außerdem werden besondere Phänomene, wie z.B. Quantified Self, näher betrachtet, um weitere Einflussfaktoren feststellen zu können. Basierend auf der Literaturanalyse wird eine qualitative Untersuchung nach Mayring (2014) durchgeführt. Es wird ein Interviewleitfaden entwickelt, der als Grundlage für die Untersuchung der festgestellten Determinanten der Literaturanalyse dient. Diese sollen durch 30 Interviews mit Nutzern von Informations- und Kommunikationstechnologien bestätigt oder widerlegt werden.
Mit Hilfe der durchgeführten Interviews lässt sich ein Großteil der Determinanten aus der Literatur bestätigen. Es wurden auch einige neue Determinanten festgestellt. Diese Ergebnisse werden in das abschließende Modell eingearbeitet. Dieses Modell bietet eine Grundlage für weitere Forschungen im Bereich „Digital Happiness“. Schlussendlich werden noch verschiedene Implikationen für die Forschung und Praxis festgestellt, welche weiteren Forschungsbedarf erkennen lassen.
Die Reputation von Unternehmen ist einer zunehmenden Gefahr ausgesetzt, die sich aus der (unreflektierten) Nutzung sozialer Netzwerke durch die eigenen Mitarbeiter ergibt. Die Treiber und Hemmnisse eines solchen Nutzerverhaltens von Arbeitnehmern in sozialen Netzwerken wurden bislang nur unzureichend erforscht. Der vorliegende Beitrag untersucht unter Verwendung der Boundary Theorie am Beispiel der Plattform Facebook, inwieweit die Persönlichkeitsmerkmale Neurotizismus und Extraversion, die Organisationsidentifikation und die Unternehmensreputation ein zustimmendes Verhalten von Nutzern begünstigen. Eine experimentelle Online-Studie mit 494 Probanden zeigt, dass insbesondere eine hohe Unternehmensreputation und Organisationsidentifikation zu einem erhöhten zustimmenden Verhalten führen.