Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (270) (entfernen)
Sprache
- Deutsch (270) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Forschen in Koblenz (7)
- Junges Forschen (7)
- Wissenschaft Koblenz (7)
- Customer Relationship Management (2)
- DOCHOUSE (2)
- Datensicherheit (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Informatik (2)
Institut
- Zentrale Einrichtungen (171)
- Fachbereich 4 (60)
- Institut für Management (24)
- Institut für Wirtschafts- und Verwaltungsinformatik (22)
- Institut für Anglistik und Amerikanistik (7)
- Institut für Evangelische Theologie (7)
- Institut für Kulturwissenschaft (7)
- Fachbereich 5 (5)
- Institut für Computervisualistik (5)
- Institut für Erziehungswissenschaft (4)
This paper describes a parallel algorithm for selecting activation functionsrnof an artifcial network. For checking the efficiency of this algorithm a count of multiplicative and additive operations is used.
In this article we analyze the privacy aspects of a mobile sensor application used for recording urban travel patterns as part of a travel-survey service. This service has been developed and field-tested within the Live+Gov EU Project. The privacy analysis follows a structured approach established in. Eight privacy recommendations are derived, and have already led to corresponding enhancements of the travel-survey service.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
Unfälle verursachen jährlich einen hohen volkswirtschaftlichen Schaden für die betroffenen Personen, die Unternehmen und den Staat. Die genaue Bezifferung der Höhe des Schadens stellt ein großes Problem dar, weil die wissenschaftlichen Studien mit ihren unterschiedlichen Berechnungsmodellen stark voneinander abweichen. Angesichts der geringen Unfallhäufigkeiten im Schienenverkehr ist die Kostenberechnung in wenigen wissenschaftlichen Untersuchungen von Bedeutung. Das Ziel dieser Arbeit ist, einen Überblick über die Vorgehensweisen bei der Berechnung von Unfallkosten zu geben und die auftretenden Probleme herauszustellen. Grundsätzlich teilen sich die Unfallkosten in Personen- und Sachschäden auf. Bei den Personenschäden werden neben den materiellen Schäden, die immateriellen Schäden mitbetrachtet. Dies führt zu Schwierigkeiten in der Bewertung, weil die Verluste schwer zu beziffern sind. Zu den Hauptkomponenten der Personenschäden zählen in Unfallkostenmodellen die Schäden für den Ausfall der menschlichen Arbeitskraft, die Kosten für die medizinische Versorgung und die Kosten zur Wiederherstellung der Rechtslage. Ein Modell zur Berechnung von Personenschäden im Schienenverkehr, das ausschließlich die Schäden in Deutschland einbezieht, liegt zum jetzigen Stand der Forschung nicht vor. Vom Bundesamt für Straßenwesen (BASt) wurde ein umfangreiches Kostenmodell zur Berechnung von Unfallkosten entwickelt. Das Ergebnis dieses Modells ist, dass der Kostensatz für einen Getöteten 1,1 Millionen Euro, für einen Schwerverletzten 106.000 Euro und für einen Leichtverletzten 5.000 Euro beträgt. In dieser Arbeit wird aufgezeigt, dass dieses Modell in vielen Bereichen für den Schienenverkehr von Bedeutung ist und in diesem Kontext angewendet werden kann. Neben diesem Modell, welches auf statistisch erhobenen Kennzahlen beruht, werden verschiedene Ansätze untersucht, die den Wert eines menschlichen Lebens beschreiben. Die untersuchten Modelle unterscheiden sich in ihrer Berechnungsweise und Ergebnisse weichen voneinander ab. Bei der Berechnung der Sachschäden sind die Anschaffungskosten eines Objekts entscheidend. Zur Eingrenzung der Sachschäden liegt der Fokus in dieser Arbeit auf den Beschädigungen an der Infrastruktur und am Zugmaterial. Mithilfe des Kostenkennwertekatalogs der Deutschen Bahn AG können die Anschaffungskosten für bestimmte Infrastrukturkomponenten ermittelt werden und bilden die Grundlage für die Schadensberechnung.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Die Reputation von Unternehmen ist einer zunehmenden Gefahr ausgesetzt, die sich aus der (unreflektierten) Nutzung sozialer Netzwerke durch die eigenen Mitarbeiter ergibt. Die Treiber und Hemmnisse eines solchen Nutzerverhaltens von Arbeitnehmern in sozialen Netzwerken wurden bislang nur unzureichend erforscht. Der vorliegende Beitrag untersucht unter Verwendung der Boundary Theorie am Beispiel der Plattform Facebook, inwieweit die Persönlichkeitsmerkmale Neurotizismus und Extraversion, die Organisationsidentifikation und die Unternehmensreputation ein zustimmendes Verhalten von Nutzern begünstigen. Eine experimentelle Online-Studie mit 494 Probanden zeigt, dass insbesondere eine hohe Unternehmensreputation und Organisationsidentifikation zu einem erhöhten zustimmenden Verhalten führen.
In Enhanced Reality Umgebungen nimmt der Betrachter die Umgebung und zusätzliche, in eine halbdurchsichtige Datenbrille eingeblendete Informationen wahr. Das Kalibrierungsproblem der Datenbrille ist die Aufgabe, die eingeblendete Information mit dem korrekten realen Hintergrund zur Deckung zu bringen. Heutige Datenbrillen sind vergleichsweise klobig und schwer, deshalb kommt es häufig zu leichtem Verrutschen der Brille. Wird dieses Verrutschen nicht in die Position der Einblendung in der Brille einbezogen, so passt die Einblendung nicht mehr zum realen Hintergrund. Dies wird in Abbildung 1.1 exemplarisch dargestellt. Nach initialer Kalibrierung der teildurchsichtigen Datenbrille auf das Auge des Betrachters soll deshalb bei relativer Lageveränderung der Datenbrille zum Auge (durch leichtes Verrutschen) eine Re-Kalibrierung in Echtzeit automatisch erfolgen. Eine automatische Re-Kalibrierung bei Verrutschen wird von uns erstmalig erforscht.
IT-Risk-Management ist ein Bereich, der in den letzten 2 Jahren stark diskutiert und sich verändert hat. Die Anlässe findet man sowohl in den terroristischen Überfällen und entsprechenden Konsequenzen für Unternehmen als auch an die Naturkatastrophen oder Fehlinvestitionen und undurchsichtigen Geschäfte mancher Unternehmen. Daher wurden Richtlinien und Gesetze entworfen, die Vorstände verpflichten, das eigene Unternehmen gegen konkrete Risiken zu schützen. Der Detaillierungsgrad der Vorschläge ist je nach Bereich unterschiedlich. Sind aber Unternehmen bereit, die hohen Investitionen, die mit solchen umfangreichen Projekten zusammenhängen, auf sich zu nehmen um diese Richtlinien zu verfolgen? Wo sehen sie die Vorteile einer IT-Risk-Management-Strategie und wo die Herausforderungen? Welche Entwicklungen oder Veränderung wünschen sie sich? Das sind Fragen, die in der vorliegenden Studie, Experten des Bereich IT-Risk-Management gestellt wurden um die Zukunft des IT-Risk-Managements beeinflussen zu können. Diese Fragestellungen wurden in der vorliegenden Studie untersucht, dazu haben wir Experten des Bereichs IT-Risk-Managements mit Hilfe der Delphi-Methode befragt. Der vorliegende Bericht fasst die wichtigsten Ergebnisse zusammen.
Ziel des Verbundprojektes 3D-RETISEG ist es, ein optimiertes echtzeitfähiges Soft- und Hardwarepaket zur 2D/3D-Segmentierung und Klassifizierung basierend auf hierarchischen Inselstrukturen, und zur schnellen Volumenvisualisierung sehr großer Volumendaten aus komprimierten Datensätzen zu entwickeln. Die Entwicklungen sollen in konkreten Anwendungsfällen der Forschung und der Wirtschaft als marktreifes Modul in das Softwarepaket VGStudioMax integriert werden. In der Medizin, speziell bei der Segmentierung von Volumendatensätzen, die durch unterschiedliche Tomographietechniken (z.B. CT und MRI) erzeugt werden, liefern zweidimensionale Verfahren häufig eine unzureichende Qualität aufgrund der anisotropen Berücksichtigung der Rauminformationen. Bisher entwickelte dreidimensionale Verfahren sind, neben der der schlechten Verfügbarkeit ihrer Implementierungen, häufig nur für bestimmte Fragestellungen dediziert und daher für andere Anwendungsfälle schlecht adaptierbar. Weiterhin benötigen Verfahren, die gute Ergebnisse liefern, meist eine hohe Laufzeit. Dies ist aber speziell in medizinischen Anwendungen von großem Nachteil, da hier die Qualität der Ergebnisse in letzter Instanz von einem Experten beurteilt wird. Damit das Ergebnis schnell zu benutzerdefinierten Optimierungen durch Veränderung der Verfahrensparameter zur Verfügung steht, sollte ein Verfahren nur sehr kurze Rechenzeiten benötigen. Weist ein Verfahren eine geringe Laufzeit auf, so kann es außerdem intra-operativ eingesetzt werden. Der hier im Projekt verwendete 3D-Color-Structure-Code verspricht, ein besseres und generisches Verfahren zu ermöglichen.
Campuszeitung Ausg. 1/2012
(2015)
Themen: Schwerpunkte der Forschungsinitiative Forschungsinitiative des Landes fördert vier Schwerpunkte
Student der Universität in Koblenz gewinnt Sonderpreis
Studieren bewegt
Wanderer zwischen den Kulturen
Alphajump erleichtert Berufseinstieg für Studierende
Apps für Deutschland
QR-Codes auf dem Campus und weitere
Campuszeitung Ausg. 1/2013
(2015)
Campuszeitung Ausg. 1/2014
(2015)
Campuszeitung Ausg. 1/2015
(2015)
Campuszeitung Ausg. 1/2016
(2016)
Campuszeitung Ausg. 1/2017
(2017)
Campuszeitung Ausg. 2/2011
(2015)
Themen: Methodenzentrum am Campus Koblenz
"Macbeth" mal ganz anders
Gründungsbüro eröffnet
KOpEE-Kongress
20 Jahre ZFUW
10 Jahre Semantic Web Forschung
Lahnsteiner Schüler auf dem Campus
Westpoint meets Universität in Koblenz MINT-Aktionstag 2011 auf dem Campus
Auftakt Women Career Center
Absolventenfeiern
PTHV und Uni stärken Kooperation
Campuszeitung Ausg. 2/2014
(2015)
Die Forschungsarbeit beschäftigt sich mit der zentralen Frage, welche Erfolgsfaktoren einen Effekt auf eine erfolgreiche Crowdfunding Kampagne haben. Als Untersuchungsfeld stehen deutsche Startup-Unternehmen im Fokus, die bereits erfolgreiche CrowdfundingKampagnen durchgeführt haben.
Zur Beantwortung dieser Frage wird zunächst eine systematische Literaturanalyse durchgeführt, durch die relevante Erfolgsfaktoren für eine Crowdfunding-Kampagne ermittelt werden. Diese Faktoren werden anschließend einem Mixed-Method-Ansatz unterzogen, bei dem qualitative Ergebnisse, basierend auf einer Fallstudienforschung, mit den statistisch ausgewerteten quantitativen Ergebnissen aus der Fragebogenforschung verglichen und überprüft werden. Dabei liegt der Fokus insbesondere auf der Identifikation von signifikanten Wirkungszusammenhängen zwischen den Erfolgsfaktoren und einer erfolgreichen Crowdfunding-Kampagne.
Im Ergebnis konnten diesbezüglich Wirkungszusammenhänge innerhalb dieser Thesis nachgewiesen werden. Sechs der festgestellten Zusammenhänge aus der qualitativen Analyse werden durch die quantitative Analyse bestätigt. Es konnte jedoch keine Signifikanz der Korrelationen festgestellt werden. Auch die Hypothese, dass sich die Erfolgsaussichten einer Kampagne durch eine höhere Anzahl jeweils kombinierter Erfolgsfaktoren erhöhen, wurde sowohl in der qualitativen als auch in der quantitativen Betrachtung widerlegt. Demnach galt es für den Autor der vorliegenden Thesis künftige Forschungsfelder zu definieren, die die ermittelten Ergebnisse erweitern und konkretisieren. Es bleibt beispielsweise einer weiterführenden Forschung überlassen, zu klären, ob bestimmte Kombinationen der Erfolgsfaktoren zu signifikanten Wirkungszusammenhängen führen. Darüber hinaus bietet sich eine weiterführende statistische Regressionsanalyse an, um die kausalen Effekte zu untersuchen und Prognosen für erfolgreiche Crowdfunding-Kampagnen zu formulieren.
In diesem Arbeitsbericht werden zuvor nicht identifizierte Bedrohungen bezüglich des Wahlgeheimnisses des in [BKG11] vorgeschlagenen Konzeptes zur Authentifizierung von Wählern bei elektronischen Wahlen mittels des neuen Personalausweises aufgezeigt. Überdies wird mit der Einführung einer zwischengelagerten Anonymisierungsschicht eine Lösung vorgeschlagen, wie eben diese Bedrohungen abgewehrt werden können.
Digital happiness
(2016)
Emotionen in der digitalen Welt gewinnen durch die immer weiter voranschreitende Digitalisierung in den vergangenen Jahren mehr an Bedeutung. Sowohl im Alltag als auch im Berufs- und Bildungsumfeld ist der Einsatz von Medien fast unumgänglich. In dieser Arbeit wird das noch relativ unbeachtete Thema „Digital Happiness“ genauer betrachtet. In der Literatur werden Emotionen in der digitalen Welt verstärkt untersucht, aber gerade zu dem Thema „Digital Happiness“ gibt es bisher noch nicht viele Erkenntnisse.
In diesem Forschungspraktikum werden die Unterschiede in der Kommunikation von Gefühlen in der computergestützten Kommunikation und der face-to-face Kommunikation, sowie welchen Einfluss diese haben, näher untersucht. Aber auch die Wahrnehmung und Äußerung von Emotionen in der realen und digitalen Welt werden betrachtet. Es wird eine erste Definition von „Digital Happiness“ erarbeitet und ein Modell mit den zugehörigen Determinanten, welche „Digital Happiness“ beeinflussen, entwickelt.
Um diese Ziele zu erreichen, wird eine Literaturanalyse nach der Methode von Webster & Watson (2002) durchgeführt. Hierfür werden 15 Artikel ausgewählt und genauer analysiert, um den aktuellen Stand der Forschung darzustellen. Diese werden in einer Konzeptmatrix eingeordnet. Außerdem werden besondere Phänomene, wie z.B. Quantified Self, näher betrachtet, um weitere Einflussfaktoren feststellen zu können. Basierend auf der Literaturanalyse wird eine qualitative Untersuchung nach Mayring (2014) durchgeführt. Es wird ein Interviewleitfaden entwickelt, der als Grundlage für die Untersuchung der festgestellten Determinanten der Literaturanalyse dient. Diese sollen durch 30 Interviews mit Nutzern von Informations- und Kommunikationstechnologien bestätigt oder widerlegt werden.
Mit Hilfe der durchgeführten Interviews lässt sich ein Großteil der Determinanten aus der Literatur bestätigen. Es wurden auch einige neue Determinanten festgestellt. Diese Ergebnisse werden in das abschließende Modell eingearbeitet. Dieses Modell bietet eine Grundlage für weitere Forschungen im Bereich „Digital Happiness“. Schlussendlich werden noch verschiedene Implikationen für die Forschung und Praxis festgestellt, welche weiteren Forschungsbedarf erkennen lassen.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
E-Mail-Forensik - IP-Adressen und ihre Zuordnung zu Internet-Teilnehmern und ihren Standorten
(2010)
Wesentliches Element des weltweiten Internets bildet der Adressraum der IP-Adressen, die den am Internet teilnehmenden Geräten ("IP-Hosts") zugewiesen sind. IP-Adressen (der Version 4) bestehen aus vier Zahlen zwischen 0 und 255 und repräsentieren viermal acht Bits, mit welchen insgesamt über vier Milliarden Adressen unterschieden werden können. Die zentrale Organisation IANA vergibt an fünf regionale Adressregistraturen Adressräume, welche sie an lokale Registraturen, Telecomanbieter und Internet-Service-Provider weiter verteilen. Diese Adressverteilung ist relativ stabil. Diese Zuordnung ist öffentlich zugänglich über so genannte whois-Abfragen aus Datenbanken der regionalen Registraturen. Die Internet-Service-Provider (ISP) vergeben IP-Adressen an ihre Nutzer. Die Zuordnung wird teilweise statisch mit langfristiger Bindung vorgenommen und teilweise dynamisch nur für die Dauer einer Datenverbindung. Die dynamische Adressverwaltung erlaubt es Internet-Service-Providern, mehr Nutzer zu bedienen, als ihr Adressraum an verschiedenen IPAdressen zulässt, da die Adressen von Geräten, die aus dem Internet ausscheiden, nicht wie bei der statischen Vergabe frei gehalten werden müssen, sondern an sich neu mit dem ISP verbindende Geräte vergeben werden können. In internen Tabellen verwalten die Internet-Service-Provider die Zuordnung von IP-Adressen zu den konkreten Anschlüssen ihrer Nutzer, außerdem protokollieren sie, welcher Anschluss wann welche IP-Adresse hatte . Diese Daten sind öffentlich nicht zugänglich, sondern müssen bei Bedarf mit gesetzlich geregelten Einschränkungen (Datenschutz) erfragt werden.
Das Forschungsprojekt KMU 2.0 zielt auf die Gestaltung einer modernen Arbeitswelt ab, in der die Mitarbeiter eines Netzwerkes kleiner und mittlerer Unternehmen (KMU) ihre Kompetenzen, Kreativität und Ideen in einen unternehmensübergreifenden Austausch einbringen, um innovative Lösungen für Probleme aus dem Berufsalltag gemeinsam zu generieren. Hierüber gilt es neue Wege und Szenarien für das Management der unternehmensübergreifenden Zusammenarbeit in KMU-Netzwerken zu erforschen, mit Hinblick auf die Entstehung und Umsetzung von Innovationen für Probleme aus der modernen Arbeitswelt. Fokussiert wird dabei auf den Einsatz von Web 2.0-Technologien, die als Instrument hinsichtlich ihres Unterstützungspotentials bei der kooperativen Generierung von innovativen Lösungen untersucht werden. Zentrale Fragestellung dabei ist, ob der Einsatz von Web 2.0 in einem Netzwerk von KMU den Austausch innovativer Ideen durch Vernetzung der Mitarbeiter und ihres kreativen Potentials fördert. Praxispartner ist das WirtschaftsForum Neuwied e.V., ein im nördlichen Rheinland-Pfalz angesiedeltes Unternehmen, das aus ca. 115 Mitgliedern und 10.000 Mitarbeitern besteht und durch eine heterogene Struktur an Unternehmen unterschiedlichster Größen und Branchen sowie verschiedenster Leistungsangebote charakterisiert ist.
Im Rahmen dieser Arbeit wird der Einfluss des Wahlszenarios auf die Geheimheit und Öffentlichkeit der Wahl herausgearbeitet. Ein Wahlszenario wird durch seine Wahlform und die verwendete Wahltechnik bestimmt. Bei der Wahl-form kann zwischen einer Präsenz- und einer Fernwahl unterschieden werden. Bei der Wahltechnik zwischen der Papier- und der elektronischen Wahl. Mit der Papier-Präsenzwahl, der Briefwahl (Papier-Fernwahl) und der Internetwahl (elektronische Fernwahl) werden drei prominente Wahlszenarien und ihr Einfluss auf Geheimheit, Privatheit und Öffentlichkeit untersucht.
In dieser Arbeit wird ein Mehrbenutzer-Annotationssystem namens myAnnotations vorgestellt, das mit Hilfe von sogenannten "Shared In-situ Problem Solving" Annotationen auf beliebigen Webseiten kollaborative Lern- und Arbeitsszenarien unterstützt. Hierbei wird insbesondere auf die Einsatzmöglichkeiten von "Shared In-situ Problem Solving" Annotationen beim kollaborativen Bearbeiten eines Textes und bei kollaborativen Lernerfolgskontrollen eingegangen.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
Die Messung der Produktivität von Dienstleistungen ist trotz zunehmender Relevanz immer noch ein wenig durchdrungenes Forschungsfeld. Ursachen hierfür sind vor allem in den besonderen Merkmalen von Dienstleistungen - Immaterialität und Integrativität - zu suchen. Eine typische Dienstleistung der B2B Softwarebranche ist die Anpassung von Systemen an die Bedürfnisse des Kunden - das sogenannte Customizing. Die Ausschöpfung des Customizing-Potentials von Standardsoftware und -produkten und eine stärkere Einbeziehung des Kunden in Innovationsprozesse werden jedoch dadurch erschwert, dass die Produktivität dieser Dienstleistung nur unzureichend mess- und somit bewertbar zu sein scheint.
Der vorliegende Beitrag beschreibt die Entwicklung eines Modells zur Messung der Produktivität von Dienstleistungen auf der Basis unterschiedlicher Vorstudien im Rahmen des CustomB2B Projektes an der Universität Koblenz-Landau.
Im Laufe der letzten Jahre hat sich der typische Komplex an kritischen Erfolgsfaktoren für Unternehmen verändert, infolgedessen der Faktor Wissen eine wachsende Bedeutung erlangt hat. Insofern kann man zum heutigen Zeitpunkt von Wissen als viertem Produktionsfaktor sprechen, welcher die Faktoren Arbeit, Kapital und Boden als wichtigste Faktoren eines Unternehmens ablöst (vgl. Keller & Yeaple 2013, S. 2; Kogut & Zander 1993, S. 631). Dies liegt darin begründet, dass aktive Maßnahmen zur Unterstützung von Wissenstransfer in Unternehmen höhere Profite und Marktanteile sowie bessere Überlebensfähigkeit gegenüber Wettbewerbern ohne derartige Maßnahmen nach sich ziehen (vgl. Argote 1999, S. 28; Szulanski 1996, S. 27; Osterloh & Frey 2000, S. 538). Der hauptsächliche Vorteil von wissensbasierten Entwicklungen liegt dabei in deren Nachhaltigkeit, da aufgrund der immateriellen Struktur (vgl. Inkpen & Dinur 1998, S. 456; Spender 1996a, S. 65 f.; Spender 1996b, S. 49; Nelson & Winter 1982, S. 76 ff.) eine Nachahmung durch Wettbewerber erschwert wird (vgl. Wernerfelt 1984, S. 173; Barney 1991, S. 102).
Bei dem für dieses Schutzprofil (engl. "Protection Profile" im Folgenden PP genannt) herangezogenen Evaluationsgegenstand (im Folgenden EVG genannt) handelt es sich um einen Router, der einen Schutz gegen Online-Überwachung bietet. Der EVG-Typ ist hierbei ein handelsüblicher Internet-Router, der in Privathaushalten und kleineren Firmen eingesetzt wird. Der EVG umfasst den gesamten Router, so dass sowohl die Hardwarekomponenten als auch die Softwarekomponenten betrachtet werden. Es ist dabei irrelevant, ob es ein Modell mit integriertem Breitband-Modem ist oder ob dieses separat angeschlossen ist.
Virtuelle Teams verbreiten sich weltweit immer mehr. Die Covid-19 Pandemie und die damit verbundene Homeofficepflicht sorgten in nationalen Unternehmen für die Zunahme virtueller Zusammenarbeit. Diese virtuellen Teams bleiben oftmals auch nach Aufhebung der pandemiebedingten gesetzlichen Beschränkungen bestehen. Um eine erfolgreiche Zusammenarbeit in diesen Teams zu erreichen, sind Kenntnisse zu den benötigten Eigenschaften und Fähigkeiten von Teammitgliedern von großer Bedeutung.
Um diese zu untersuchen, werden in dieser Arbeit sieben Experteninterviews mit Teammitgliedern virtueller Projektteams in der IT-Branche geführt und mithilfe qualitativer Inhaltsanalyse ausgewertet. Die ExpertInnen stammen aus drei deutschen Dienstleistungsunternehmen. Die Ergebnisse werden anhand des KSAO-Modells untersucht und nach der deduktiven Zuordnung zu den vier Kategorien „Wissen“, „Fertigkeiten“, „Kompetenzen“ und „Andere Merkmale“ jeweils durch induktive Kategorienbildung in Unterkategorien aufgeteilt. Dabei ergeben sich insgesamt 34 Kategorien, die für die virtuelle Zusammenarbeit relevant sind.
Mit den gewonnenen Erkenntnissen trägt die vorliegende Arbeit einen wichtigen Teil zur Forschung im Bereich der virtuellen Teams bei. Außerdem liefert sie Unternehmen, Führungskräften und dem Personalmanagement Anhaltspunkte für die Bewertung von BewerberInnen, die Auswahl geeigneter Teammitglieder, die Entwicklung von Schulungen und die gezielte Verbesserung virtueller Zusammenarbeit.
In dieser Bachelorarbeit wird eine Datenbank für weltweite Eisenbahn-Unfalluntersuchungsstellen erstellt. Sie beinhaltet Kontaktdaten zu jenen Behörden als auch Angaben zu öffentlich gestellten Unfalluntersuchungsberichten. Die Datenbank soll als Grundlage zur Informations- und Datenbeschaffung von Eisenbahnunfällen dienen. Die Angaben, die aus Untersuchungsberichten entnommen werden können, sind wichtige Bestandteile für eine mögliche Bewertung der Wirtschaftlichkeit und Effizienz von Sicherheitstechnologien. Neben den Grundlagen zu Untersuchungsstellen, Untersuchungsberichten und der Effizienzberechnung von Sicherheitstechnologien wird in dieser Arbeit auch eine Auswertung der in der Datenbank vorhandenen Untersuchungsstellen und den gefundenen Untersuchungsberichten präsentiert. Ebenfalls wird der Nutzen der Datenbank von Unfalluntersuchungsstellen erläutert und die möglichen Auswirkungen auf die Eisenbahnsicherheit näher gebracht.
Die Untersuchung der Erwartungen und Anforderungen der Generation Z an Führungskräfte ist sowohl praktisch als auch wissenschaftlich von hoher Relevanz. Praktisch gesehen erfordert der Fachkräftemangel in Deutschland und die veränderten Vorstellungen der Generation Z ein Umdenken bei Führungskräften. Wissenschaftlich besteht eine Forschungslücke, da traditionelle Führungstheorien oft nicht mehr zeitgemäß sind und spezifische Studien zu den Präferenzen der Generation Z fehlen.
Ziel der Masterthesis ist es, diese Lücke durch qualitative Experteninterviews zu schließen und neue Erkenntnisse über die Ansichten der Generation Z zu gewinnen. Dabei sollen Unternehmen unterstützt werden, junge Fachkräfte langfristig zu gewinnen.
Die Methode umfasst eine qualitative Studie mit 14 Interviewpartnern, darunter Mitarbeiter der Generation Z und Führungskräfte. Die semistrukturierten Interviews wurden transkribiert und mithilfe der qualitativen Inhaltsanalyse nach Mayring und der Software MAXQDA ausgewertet. Induktiv wurden Kategorien aus dem Material gebildet.
Die Ergebnisse zeigen, dass die Generation Z authentische, empathische Führung und klare Perspektiven erwartet. Hauptkategorien wie Organisation, soziale Kompetenz, Teamfähigkeit und zukunftsfähige Wege wurden identifiziert. Beide Gruppen betonen die Bedeutung von Befähigung, regelmäßiger Kommunikation, Fairness und Transparenz.
Praktisch implizieren die Ergebnisse, dass Unternehmen praktische Maßnahmen und Weiterentwicklungen vornehmen müssen, um den Bedürfnissen der jungen Generation gerecht zu werden. Für die Forschung bietet die Studie eine Basis für weiterführende quantitative Untersuchungen und ein konzeptionelles Framework zur Darstellung der wichtigsten Kategorien und ihrer Zusammenhänge.
Das Bulletin Esskulturen ist aus dem Verbundprojekt „Esskulturen. Objekte, Praktiken, Semantiken“ hervorgegangen, das im Rahmen der Förderlinie „Sprache der Objekte“ von September 2018 bis August 2021 vom Bundesministerium für Bildung und Forschung finanziert wird. In jeder Ausgabe bildet ein Objekt der Stiftung Bürgerliche Wohnkultur, Sammlung Alex Poignard (Landesmuseum Koblenz) den Ausgangspunkt für eine interdisziplinäre Auseinandersetzung mit unterschiedlichen soziokulturellen Fragen rund um das Thema Essen.
Ess-Manieren. Etikette und Abweichung,
Bulletin Esskulturen, 2. Jahrgang 2020, Mappe III, Faszikel 13-18
Inhalt der Ausgabe
Petra Habrock-Henrich, Der Serviettenring. Funktionsbesteckteil mit Symbolkraft, Dekorations- und Sammlungsobjekt
Clemens Albrecht, Trotzdem. Die paradoxalen Grundlagen der Essmanieren
Albrecht Classen, Tischzuchten und höfisches Verhalten im Mittelalter. Essen als soziales Ereignis
Susanne Enderwitz, Tischmanieren im Kontext. Futuwa und zarf im mittelalterlichen Islam
Gianluca Cavelti/Thomas Schmid, Tischsitten im Kontext institutioneller Erziehung
Maximilian Rünker, Mehr als Zu(-)Schauen. Popcornessen und die Körperlichkeit des Kinos
Impressum
Die Instandhaltungsstrategie Predictive Maintenance, welche sich durch das Treffen von Vorhersagen zum Ausfallverhalten technischer Einheiten auf Basis von moderner Sensortechnik auszeichnet, nimmt vor dem Hintergrund einer Industrie 4.0 eine Schlüsselrolle in Smart Factories ein. In der vorliegenden Arbeit wird der gegenwärtige Forschungsstand zur Strategie evaluiert und ein Überblick der bisherigen Einsatzgebiete gegeben. Mithilfe einer qualitativen Videoanalyse wird die Realisierung in den involvierten Branchen und Unternehmensbereichen sowie die Art der überwachten Güter untersucht. Die analysierten Videoclips wurden von verschiedenen Unternehmen, welche unterschiedliche Blickwinkel auf Predictive Maintenance einnehmen, auf der Plattform YouTube beispielsweise zu Marketingzwecken hochgeladen. Anhand eines vorab festgelegten Kodierplans wurde im Rahmen der Videoanalyse die Kodierung des Videomaterials vorgenommen. Die Ergebnisse zeigen eine überwiegende Anwendung im produzierenden Gewerbe, in dem Predictive Maintenance zur Überwachung von Anlagen und Maschinen, welche an den Produktionsprozessen beteiligt sind, eingesetzt wird. Zudem wird die Strategie in hohem Maße zur Überwachung von Verkehrsmitteln eingesetzt, welche der Güter- und Personenbeförderung auf verschiedenen Verkehrswegen dienen. Resultierend aus der Videoanalyse wird der gegenwärtig hohe Erklärungsbedarf zu Predictive Maintenance sichtbar. Durch die Betrachtung dieser Erklärungen lassen sich die Besonderheiten in Abgrenzung zu anderen Instandhaltungsstrategien erkennen.
Die Umsetzung von Fernarbeitsregelungen wurde bisher überwiegend in allgemeiner Natur betrachtet. In der vorliegenden Arbeit wird mit Hilfe von Interviews mit Führungskräften, Mitarbeitern und IT-Dienstleistern die Umsetzung von Fernarbeitsregelungen in deutschen Regionalbanken betrachtet. Mit Hilfe der Grounded Theory werden dabei Herausforderungen, Lösungsansätze, Vorteile und Nachteile einer Umsetzung herausgearbeitet. Dabei zeigt sich, dass die Umsetzung zwischen den verschiedenen Banken starke Unterschiede aufweist, was den Fortschritt betrifft. Besonders die Überzeugung, dass eine Umsetzung vorteilhaft für die Bank sowie die Mitarbeiter ist, zeigt sich als Kernproblem in der eher konservativen Bankenlandschaft. Mit Hilfe der Arbeit werden Lösungsansätze gezeigt, um Herausforderungen bewältigen zu können und den Einfluss von Nachteilen zu minimieren. Dadurch dient die Arbeit dazu, Regionalbanken bei einer Umsetzung von Fernarbeitsregelungen zu unterstützen, indem sie Potenziale erkennen können und Möglichkeiten aufgezeigt bekommen, eine Umsetzung zu gewährleisten.