Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
In recent years ontologies have become common on the WWW to provide high-level descriptions of specific domains. These descriptions could be effectively used to build applications with the ability to find implicit consequences of their represented knowledge. The W3C developed the Resource Description Framework RDF, a language to describe the semantics of the data on the web, and the Ontology Web Language OWL, a family of knowledge representation languages for authoring ontologies. In this thesis we propose an ontology API engineering framework that makes use of the state-of-the-art ontology modeling technologies as well as of software engineering technologies. This system simplifies the design and implementation process of developing dedicated APIs for ontologies. Developers of semantic web applications usually face the problem of mapping entities or complex relations described in the ontology to object-oriented representations. Mapping complex relationship structures that come with complex ontologies to a useful API requires more complicated API representations than does the mere mapping of concepts to classes. The implementation of correct object persistence functions in such class representations also becomes quite complex.
Existing tools for generating application programming interfaces (APIs) for ontologies lack sophisticated support for mapping the logics-based concepts of the ontology to an appropriate object-oriented implementation of the API. Such a mapping has to overcome the fundamental differences between the semantics described in the ontology and the pragmatics, i.e., structure, functionalities, and behavior implemented in the API. Typically, concepts from the ontology are mapped one-to-one to classes in the targeted programming language. Such a mapping only produces concept representations but not an API at the desired level of granularity expected by an application developer. We present a Model-Driven Engineering (MDE) process to generate customized APIs for ontologies. This API generation is based on the semantics defined in the ontology but also leverages additional information the ontology provides. This can be the inheritance structure of the ontology concepts, the scope of relevance of an ontology concept, or design patterns defined in the ontology.
Men are currently underrepresented in traditionally female care-oriented (communal) engagement such as taking parental leave, whereas they are overrepresented in traditionally male (agentic) engagement such as breadwinning or leadership. We examined to what extent different prototypical representations of men affect men’s self-reported parental leave-taking intentions and more generally the future they can imagine for themselves with regard to work and care roles (i.e., their possible selves). We expected prototypes of men that combine the two basic stereotype dimensions of agency and communion to increase men’s communal intentions. In two experiments (N1 = 132, N2 = 233), we presented male participants with contrived newspaper articles that described the ideal man of today with varying degrees of agency and communion (between-subjects design with four conditions; combined agentic and communal vs. agentic vs. communal vs. control condition). Results of Experiment 1 were in line with the main hypothesis that especially presenting a combination of agency and communion increases men’s expectations for communal engagement: As compared to a control condition, men expected more to engage in caretaking in the future, reported higher parental leave-taking intentions, and tended to expect taking longer parental leave. Experiment 2 only partially replicated these findings, namely for parental leave-taking intentions. Both experiments additionally provided initial evidence for a contrast effect in that an exclusive focus on agency also increased men’s self-reported parental leave-taking intentions compared to the control condition. Yet, exclusively emphasizing communion in prototypes of men did not affect men’s communal intentions, which were high to begin with. We further did not find evidence for preregistered mechanisms. We discuss conditions and explanations for the emergence of these mixed effects as well as implications for the communication of gendered norms and barriers to men’s communal engagement more broadly.
Networked RDF graphs
(2007)
Networked graphs are defined in this paper as a small syntactic extension of named graphs in RDF. They allow for the definition of a graph by explicitly listing triples as well as by SPARQL queries on one or multiple other graphs. By this extension it becomes possible to define a graph including a view onto other graphs and to define the meaning of a set of graphs by the way they reference each other. The semantics of networked graphs is defined by their mapping into logic programs. The expressiveness and computational complexity of networked graphs, varying by the set of constraints imposed on the underlying SPARQL queries, is investigated. We demonstrate the capabilities of networked graphs by a simple use case.
Diese Bachelorarbeit befasst sich mit der Entwicklung und Implementierung einer Gesichtserkennenden Software, die in der Lage ist Personenströme zurnerkennen und zu protokollieren. Dabei wird, ausgehend von den speziellen Anforderungen der Bildverarbeitung die entstandene Softwarearchitektur und deren Implementation vorgestellt. Zusätzlich wird zur Implementation ein Webinterface entwickelt welches die Verwaltung der Daten vereinfachen soll. Abschließend werden weitere Verfahren der Gesichtserkennung vorgestellt und gegen das eingesetzte Verfahren verglichen. Zum Schluss wird die implementierte Software evaluiert.
In der Biologie stellt das Zeichnen eine zentrale Arbeitstechnik dar. Viele Studien konnten auf einen positiven Effekt des Zeichnens für bestimmte Situationen hinweisen. Schülerinnen und Schüler müssen diese Technik jedoch zunächst erlernen. Hierbei können zahlreiche Schwierigkeiten auftreten, die die inhaltliche Auseinandersetzung gefährden. Jedoch wurden sowohl Schwierigkeiten im Umgang mit unterschiedlichen Repräsentationsformen als auch der Zeichenprozess bislang nur lückenhaft untersucht. Die Studie dieser Arbeit hat daher zum Ziel, (I) den Zeichenprozess auf der Ebene der Sichtstruktur zu beschreiben, (II) die manifesten Schwierigkeiten von Lernenden zu erfassen, auf die sie während der Konstruktion biologisch bedeutsamer Repräsentationsformen (Ablaufdiagramme, mikroskopische Zeichnungen) treffen, (III) und auf Grundlage der empirischen Befunde Schülertypen abzuleiten. Vor diesem Hintergrund waren 21 Schülerinnen und Schüler angehalten, jeweils ein Ablaufdiagramm auf Grundlage eines Texts und eine mikroskopische Zeichnung auf Grundlage eines Präparats zu konstruieren und dabei laut zu denken. Fragen zur Vorerfahrung sowie retrospektiv gestellte Fragen zum Vorgehen der Teilnehmenden umrahmten den videografisch dokumentierten Prozess. Die Ergebnisse zeigen, dass der Zeichenprozess mehr als zehn unterschiedliche Tätigkeiten umfassen kann, wobei die Kerntätigkeit des Zeichnens durchschnittlich nur rund ein Drittel des Prozesses ausmacht. Die Prozessstruktur zwischen Fällen variiert erheblich. Weiterhin konnten etwa 30 Schwierigkeiten bzw. Fehler identifiziert werden, die während der Konstruktion beider Repräsentationsformen auftreten. Diese können dabei sowohl einzelne als auch mehrere Tätigkeiten betreffen und zu Tätigkeitsabbrüchen führen. Schwierigkeiten stehen häufig in Verbindung mit Tätigkeiten, die außerhalb der Kerntätigkeit des Zeichnens liegen (z. B. Abgleich mit der Textgrundlage). Bezogen auf Ablaufdiagramme stellt das Verhältnis depiktional bzw. deskriptional dargestellter Textinformationen den Ausgangspunkt der Typisierung dar: Typ I: realistisch abbildend, II: alternierend abbildend und III: schriftorientiert abbildend. Für mikroskopische Zeichnungen war die Häufigkeit des Abgleichs mit dem Objekt grundlegend für die Typisierung: Typ I: oberflächlich abbildend, II: objektorientiert abbildend und III: undifferenziert detailliert abbildend. Die Studie liefert erstmals Kategoriensysteme, die es erlauben, die Prozessstruktur des Zeichnens sichtbar und zwischen Fällen vergleichbar zu machen sowie schwierigkeitsbezogenes Grundlagenwissen zur Konstruktion von Zeichnungen, basierend auf Texten und Beobachtungen. Die Übertragbarkeit der Befunde auf andere Repräsentationsformen ist an vielen Stellen denkbar. Die theoretisch fundierte Systematisierung von Schwierigkeiten kann von weiterführenden Untersuchungsansätze aufgegriffen werden und erlaubt die Verortung situationsangemessener Unterstützungsmaßnahmen.
Die Bereitstellung elektronischer Beteiligungsverfahren (E-Partizipation) ist ein komplexes sozio-technisches Unterfangen, das eine sorgfältige Vorgehensweise erfordert. Die Herausforderung ist, dass Regierungen oder Kommunalverwaltungen, als häufigste Anbieter, bei der ganzheitlichen Planung und Umsetzung nur unzureichend unterstützt werden. Infolgedessen beschreibt die Literatur nur wenige E-Partizipationsangebote als erfolgreich. Die Wirtschaftsinformatik entwickelte das Konzept der Enterprise Architectures um die Entwicklung komplexer sozio-technischer Systeme zu unterstützen. Versteht man die Gruppe an Organisationen, die E-Partizipationsverfahren bereitstellt nun als Enterprise, so können die Prinzipien von Enterprise Architectures angewendet werden. Nichtsdestotrotz wurde dieser Ansatz in der E-Partizipationspraxis und –Forschung bisher kaum beachtet.
Motiviert durch diese Forschungslücke, untersucht die Dissertation bestehende Ansätze aus der E-Partizipationspraxis und –Forschung auf Besonderheiten und Schwachstellen, um anschließend den Nutzen bestehender Rahmenwerke für Enterprise Architectures im Kontext von E-Partizipation zu analysieren. Die Literaturstudie überprüft sowohl konzeptionelle als auch prozedurale Ansätze aus Praxis und Wissenschaft auf ihre Ganzheitlichkeit und identifiziert die Herausforderungen. Im Rahmen von vier Projekten wird das Vorgehen beim Entwurf und der Umsetzung von elektronisch unterstützten Beteiligungsverfahren dokumentiert und ausgewertet sowie Verbesserungspotenziale aufgezeigt. Enterprise Architecture Frameworks (Zachman Framework, TOGAF, DoDAF, FEA, ARIS, und ArchiMate) werden auf Anforderungen und Nützlichkeit für E-Partizipation untersucht. Die Ergebnisse zeigen die Herausforderungen bei der Übernahme existierender Enterprise Architecture Frameworks, aber auch das Potential einer Kombination aus speziellen Ansätzen für E-Partizipation mit Enterprise Architectures auf. Folglich ist das Ziel der weiteren Forschung die Entwicklung eines Architekturrahmenwerks für E-Partizipation.
Die vorliegende Dissertation führt die Ergebnisse der Literaturstudien und Aktionsforschung zusammen und wendet dementsprechend Konstruktionsforschung (Design Science Research) bei der Entwicklung des E-Participation Architecture Framework (EPART-Framework) an. Die initiale Version dieses Rahmenwerks wird in zwei unterschiedlichen Umgebungen angewandt und getestet. Die Erkenntnisse führen zu dem EPART-Framework, das in dieser Dissertation vorgestellt wird. Es besteht aus dem EPART-Metamodel, das E Partizipation aus sechs verschiedenen Perspektiven unterschiedlicher Akteure (den sog. EPART-Viewpoints) betrachtet. Die EPART-Method unterstützt den Entwurf und die Umsetzung von E-Partizipation mit Hilfe des EPART-Frameworks. Sie beschreibt fünf, durch Anforderungsmanagement begleitete, Phasen: Initiierung, Entwurf, Umsetzung, Partizipation und Evaluation. Die Ergebnisse während diesen Phasen werden in der Architekturbeschreibung (Architecture Description) und dem Solution Repository gespeichert. Das finale EPART-Framework wird im Rahmen der Arbeit evaluiert, um Empfehlungen für die Anwendung sowie weiteren Forschungsbedarf aufzuzeigen. Die Ergebnisse geben Grund zur Annahme, dass das EPART-Framework die Lücke zwischen E-Partizipation und Enterprise Architectures füllt und Forschung und Praxis in dem Feld wertvoll ergänzt.
The Multimedia Metadata Ontology (M3O) provides a generic modeling framework for representing multimedia metadata. It has been designed based on an analysis of existing metadata standards and metadata formats. The M3O abstracts from the existing metadata standards and formats and provides generic modeling solutions for annotations, decompositions, and provenance of metadata. Being a generic modeling framework, the M3O aims at integrating the existing metadata standards and metadata formats rather than replacing them. This is in particular useful as today's multimedia applications often need to combine and use more than one existing metadata standard or metadata format at the same time. However, applying and specializing the abstract and powerful M3O modeling framework in concrete application domains and integrating it with existing metadata formats and metadata standards is not always straightforward. Thus, we have developed a step-by-step alignment method that describes how to integrate existing multimedia metadata standards and metadata formats with the M3O in order to use them in a concrete application. We demonstrate our alignment method by integrating seven different existing metadata standards and metadata formats with the M3O and describe the experiences made during the integration process.
The lack of a formal event model hinders interoperability in distributed event-based systems. Consequently, we present in this paper a formal model of events, called F. The model bases on an upper-level ontology and pro-vides comprehensive support for all aspects of events such as time and space, objects and persons involved, as well as the structural aspects, namely mereological, causal, and correlational relationships. The event model provides a flexible means for event composition, modeling of event causality and correlation, and allows for representing different interpretations of the same event. The foundational event model F is developed in a pattern-oriented approach, modularized in different ontologies, and can be easily extended by domain specifific ontologies.
Schema information about resources in the Linked Open Data (LOD) cloud can be provided in a twofold way: it can be explicitly defined by attaching RDF types to the resources. Or it is provided implicitly via the definition of the resources´ properties.
In this paper, we analyze the correlation between the two sources of schema information. To this end, we have extracted schema information regarding the types and properties defined in two datasets of different size. One dataset is a LOD crawl from TimBL- FOAF profile (11 Mio. triple) and the second is an extract from the Billion Triples Challenge 2011 dataset (500 Mio. triple). We have conducted an in depth analysis and have computed various entropy measures as well as the mutual information encoded in this two manifestations of schema information.
Our analysis provides insights into the information encoded in the different schema characteristics. It shows that a schema based on either types or properties alone will capture only about 75% of the information contained in the data. From these observations, we derive conclusions about the design of future schemas for LOD.
Designing Core Ontologies
(2011)
One of the key factors that hinders integration of distributed, heterogeneous information systems is the lack of a formal basis for modeling the complex, structured knowledge that is to be exchanged. To alleviate this situation, we present an approach based on core ontologies. Core ontologies are characterized by a high degree of axiomatization and formal precision. This is achieved by basing on a foundational ontology. In addition, core ontologies should follow a pattern-oriented design approach. By this, they are modular and extensible. Core ontologies allow for reusing the structured knowledge they define as well as integrating existing domainrnknowledge. The structured knowledge of the core ontologies is clearly separated from the domain-specific knowledge. Such core ontologies allow for both formally conceptualize their particular fields and to be flexibly combined to cover the needsrnof concrete, complex application domains. Over the last years, we have developed three independent core ontologies for events and objects, multimedia annotations, and personal information management. In this paper, we present the simultaneousrnuse and integration of our core ontologies at the example of a complex, distributed socio-technical system of emergency response. We describe our design approach for core ontologies and discuss the lessons learned in designing them. Finally, we elaborate on the beauty aspects of our core ontologies.
Cloud-Computing ist aktuell ein besonderer Trend in der IT-Branche. ERP-Systeme sind in den heutigen Unternehmen ebenfalls nicht mehr wegzudenken. Durch die Analyse ausgewählter Literatur wird aufgezeigt, dass Cloud-Computing als Betriebsmodell für ERP-Systeme besonderer Untersuchung bedarf, da beim Zusammenspiel dieser Technologien noch unterschiedliche Herausforderungen geklärt werden müssen. Darauf aufbauend werden mit Hilfe von drei verschiedenen Praxispartnern Fallstudien zu deren Cloud-ERP-Lösungen erstellt, um in einem nächsten Schritt die theoretische Literatur mit den praktischen Ergebnissen zu vergleichen.
Ziel dieser Arbeit ist es mit Hilfe der Forschungsfragen, differenzierte Nutzenaspekte von Cloud-ERP-Lösungen aufzudecken und zu erklären, wie die Theorie mit praktischen Erfahrungswerten von Experten übereinstimmt. Durch die Fallstudien wird deutlich, dass sich die drei unterschiedlichen Cloud-ERP-Anbieter vor allem durch den Umfang ihrer Software und die Unternehmensgrößen der Zielgruppen im Markt differenzieren. Zusätzlich zeigt sich im Analyseteil und Fazit der Arbeit, dass über die in der Theorie identifizierten Nutzenaspekte hinaus, zusätzliche Nutzenaspekte durch die Kombination von Cloud-ERP-Lösungen generiert werden können und dass es aktuell schon eine spezielle Zielgruppe für Cloud-ERP-Lösungen gibt. Für die Zukunft bleibt abzuwarten, wie sich der Cloud-ERP-Markt weiterentwickeln wird und welche weiteren Funktionalitäten in die Cloud ausgelagert werden können, sodass sich On-Demand ERP-Systeme zu einer Konkurrenz von On-Premise-Lösungen entwickeln können.
Quellen sind hochdiverse Lebensräume mit einer stark spezialisierten Fauna, wobei noch Lücken im Verständnis der besiedlungsrelevanten Faktoren für die aquatische Makrofauna bestehen, so dass die Arbeit einen klärenden Beitrag hinsichtlich anthropogener Veränderungen und ihrer Auswirkungen auf die Besied-lung leisten will. Basierend auf Daten von 334 Quellen aller Grundwasserlandschaften von Rheinland-Pfalz wurden die Quellen morphologisch und faunistisch bewertet. Außerdem wurden die Quellen des Landes morphologisch typisiert, Referenzquellen analysiert und ein Ansatz für die morphologische und faunistische Leitbildentwicklung gegeben. Außerdem wird ein selbst entwickeltes, kompaktes Kartier- und Bewertungsverfahren zur Quellstruktur vorgestellt, wo bislang noch ein Defizit bestand. Das Verfahren erfasst in einem Erfassungsbogen alle ökologisch bedeutsamen Strukturparameter und bewertet in einem 5-stufigen System. Quellen sind hochdiverse Lebensräume mit kleinen Populationen in isolierter Lage. Bei der Untersuchung der 310 Quellen wurden insgesamt 292 Arten bzw. höhere Taxa des Makrozoobenthos nachgewiesen. Es wurden 89 quellassoziierte Taxa gezählt, hiervon waren 24 krenobiont und 65 krenophil. Der Anteil der quellassoziierten Fauna an der Gesamtfauna lag bei über 30%. Es fanden sich 19 Erstnachweise für Rheinland-Pfalz, 9 besondere Nachweise (seltene Arten) und 19 Rote-Liste-Arten. Erstnachweise fanden sich in wenig bearbeiteten Dipterengruppen, vor allem den Psychodidae (13), Limoniidae (5) und ferner den Simu-liidae (1). Bei den Köcherfliegen wurden etliche seltene Arten gefunden, welche bisher in Rheinland-Pfalz kaum gefunden wurden. Häufigere krenobionte Taxa waren Crunoecia irrorata, Bythinella dunkeri, Niphar-gus sp., Pisidium personatum, Salamandra salamandra, Thaumalea sp., Agabus guttatus, Crenobia alpina, Oxycera sp. und Beraea maura. Die durchschnittliche Taxazahl pro Quelle betrug 11, die maximale 62 Taxa. Schüttung und Morphologie der Quellen waren von Naturraum und Grundwasserlandschaft abhängig, so schütteten etwa Buntsandsteinquellen ergiebiger und konstanter als Tonschieferquellen. Quellen spiegeln die Hydrologie ihrer Einzugsgebiete wider, so dass in verschiedenen hydrogeologischen Einheiten die chemischen Parameter differierten. In einzelnen Quellen schwankte die Hydrochemie jahreszeitlich aber nur gering. Der pH-Wert etwa war im Quellwasser versauerungsgefährdeter Gebiete niedrig (Hunsrück, Pfälzer-wald), der Nitratgehalt anthropogen bedingt hoch in intensiv landwirtschaftlich genutzten Räumen. Die morphologische Quelltypologie, welche sich in erster Linie auf gängige Quelltypen stützte, ergab in elf hydrogeologischen Quelltypenräumen vier Basisquelltypen und fünf geochemische Sondertypen. Die Wan-derquelle wurde neu hinzu genommen. Die landesweite Verteilung der Quelltypen ergab bei ungefassten Quellen 57 % Sicker-, 32 % Sturz-, 9 % Tümpel- und über 2 % Wanderquellen. Wanderquellen dürften aber noch öfter vorkommen. Relief und Substrateigenschaften waren entscheidende Faktoren für die Typologie, so dass etwa Sturzquellen vor allem im Buntsandstein häufig waren, während Sickerquellen im Tonschiefer des rheinischen Schiefergebirges dominierten. Es wurden 85 Strukturreferenzquellen als typische, naturnahe Beispiele für einzelne Quelltypenräume genannt. Etwa zwei Drittel aller Quellen waren strukturell beein-trächtigt bis stark geschädigt, 59 % gefasst. Fassungen, Verrohrungen und Betonverbau waren ökologisch besonders bedeutsam. In Regionen mit intensiver Landwirtschaft lagen generell die stärksten Schädigungen vor. Im Forst waren Quellen durch Nadelholzmonokulturen und in den Hochlagen pufferarmer Mittelgebirge durch Versauerung geschädigt. Hinsichtlich der Besiedlung ergaben sich Unterschiede zwischen den Naturräumen, beeinflusst durch die Faktoren Geologie, Hydrochemie, Schüttungsverhältnisse, Landnutzung im Einzugsgebiet sowie die Struk-turvielfalt an der Quelle. Strukturell unveränderte und unversauerte Quellen besaßen im Schnitt höhere Ta-xazahlen. Einzelne Faktoren mit Einfluss auf die Besiedlung wurden in ihrer Auswirkung getestet. In Quel-len ist die Versauerung grundsätzlich besiedlungsbeschränkend und überlagert strukturelle Faktoren. Bei niedrigen pH-Werten kommt es zu verminderten Taxazahlen, allerdings sind viele Quellorganismen offen-sichtlich an eine leichte Versauerung angepasst, da in sauren Quellen der Anteil der Quellfauna höher war. Außerdem ergab die Untersuchung, dass neue und intakte Fassungen weniger Taxa und Quelltaxa aufwiesen, während bei alten und verfallenen Fassungen oft eine hohe Quelltaxazahl vorlag, so dass diese als sekundär ökologisch wertvoll zu bezeichnen sind. Die Umfeldnutzung und die Größe des Quellbereichs sind ebenfalls wichtig, so dass Quellen in Laub- und Mischwald sowie in extensivem Grünland am besten besiedelt waren. Die stärksten statistischen Zusammenhänge mit der faunistischen Besiedlung ergaben sich bei den Bewer-tungsergebnissen des Strukturverfahrens, was zeigt, dass das Verfahren realistisch bewertet. Multivariate statistische Methoden dienten der Ermittlung von Besiedlungsfaktoren und der Leitbildentwick-lung. Es ergab sich eine unterschiedliche Besiedlung bei verschiedener Hydrogeologie und Hydrochemie sowie bei verschiedenen Quelltypen. Allerdings waren die Ergebnisse nicht eindeutig, so dass die Trennung der Quelltypen nur teilweise gelang und die Quelltypen von den Grundwasserlandschaften überlagert waren. Die Faunenunterschiede verschiedener Regionen waren größer als die einer Region, so dass morphologische Quelltypen faunistisch nur innerhalb einer hydrogeologischen Einheit von Bedeutung sind. Es wurden regionale faunistische Leitarten für vier Grundwasserlandschaften genannt, wobei sich auf wenige hochstete Quellarten beschränkt wurde. Die Arbeit zeigt, dass faunistisch orientierte Leitbilder nur unter Schwierigkeiten anzugeben sind und vollständige Typuszönosen für größere Gebiete grundsätzlich in Frage zu stellen sind. Sehr häufige grundsätzliche Leitarten für Quellen silikatischer Mittelgebirge in Rheinland-Pfalz sind Crunoecia irrorata und Bythinella dunkeri.
Der Arbeitsmarkt in Deutschland erlebt einen technologisch bedingten Strukturwandel. Durch Digitalisierung werden Tätigkeiten substituierbar, Berufsbilder und dafür benötigte Qualifikationsprofile wandeln sich. Für die Arbeitskräfte resultiert daraus ein Anpassungsdruck, sich zum Erhalt ihres Humankapitals bzw. ihrer Beschäftigungsfähigkeit weiterzubilden. Fraglich ist, inwieweit die Individuen diesen Druck wahrnehmen und mit entsprechenden Weiterbildungen reagieren. Um einen Erklärungsbeitrag zum Weiterbildungsverhalten der Arbeitskräfte in Bezug auf den technologischen Wandel zu leisten, widmet sich das Promotionsvorhaben der Forschungsfrage: „Inwieweit reagieren Arbeitskräfte bezüglich ihres Weiterbildungsverhaltens auf einen sich digitalisierungsbedingt wandelnden Arbeitsmarkt?“
Die Biopolyester Cutin und Suberin stellen hydrophobe Grenzbarrieren dar, die sich im Laufe der Evolution der Landpflanzen entwickelt haben. Cutin bildet den Hauptbestandteil der Cuticula, die den Pflanzen Schutz vor unkontrollierter Transpiration bietet. Die Einlagerung von Suberin in die Zellwände definierter Zellen des Wurzelgewebes ermöglicht eine kontrollierte Aufnahme von Wasser und Nährstoffen. Zu den wichtigsten monomeren Bestandteilen dieser biologischen Polyester gehören langkettige α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren. Bisher wurde der mikrobielle Abbau der Makromoleküle unzureichend erforscht. Zur Entschlüsselung der Zersetzung ist es notwendig, den Kreislauf der monomeren Bestandteile im Boden zu betrachten. Hierzu eignen sich vor allem Experimente mit positionsspezifisch ¹³C -markierten α,ω-Dicarbonsäuren und ω-Hydroxycarbonsäuren, die in der vorliegenden Arbeit erstmals synthetisch zugänglich gemacht wurden. Die Synthesen umfassten Dicarbonsäuren der geradzahligen Kettenlängen C12 bis C30, deren Carboxygruppen ¹³C -markiert sind. Ebenfalls wurde die Synthese von ω-Hydroxycarbonsäuren der Kettenlängen C14, C18, C22 und C30 mit ¹³C-Markierung an der Carboxygruppe realisiert. Weitere Zielverbindungen waren ω-Hydroxycarbonsäuren der Kettenlängen C14, C15, C18, C22 und C30, deren terminales hydroxyliertes Kohlenstoffatom mit ¹³C markiert ist. Im Rahmen der durchgeführten Arbeit gelang es, alle 19 Zielcarbonsäuren erfolgreich in hohen Ausbeuten und Reinheiten darzustellen. Die Synthese der isotopenmarkierten Verbindungen erforderte die Entwicklung spezieller auf die jeweiligen Zielsubstanzen individuell angepasster Syntheserouten, die den Einbau des Kohlenstoffisotops ¹³C ermöglichten. Für alle Zielverbindungen erfolgte die Einführung des ¹³C durch die Verwendung von ¹³C -markiertem Kaliumcyanid (99 at%). Wegen der hohen Kosten des ¹³C -markierten Ausgangsstoffes wurden alle Reaktionen zunächst unter der Verwendung analoger unmarkierter Edukte optimiert. Der letzte Teil der Arbeit bestand in der Ausführung eines Inkubationsexperimentes mit den ¹³C -markierten α,ω-Dicarbonsäuren der Kettenlängen C12, C18, C22 und C30. Mittels Phospholipidfettsäure-Analyse konnte gezeigt werden, dass die ¹³C -Dicarbonsäuren zu unterschiedlichen Anteilen von verschiedenen Mikroorganismengruppen zum Aufbau von Phospholipidfettsäuren verwendet wurden. Außerdem konnte durch die Anreicherung des CO2 mit dem Isotop ¹³C nachgewiesen werden, dass die ¹³C -markierten Fettsäuren von den Mikroorganismen zur Energiegewinnung abgebaut wurden. Für zukünftige Arbeiten wäre es interessant, Ausschnitte der Cutin- und Suberinstruktur nachzubilden. Durch die Veresterung der ¹³C -markierten α,ω-Dicarbonsäuren und der ¹³C -markierten ω-Hydroxycarbonsäuren untereinander oder mit Alkoholen könnten Dimere und Oligomere hergestellt werden.
The three biodegradable polymers polylactic acid (PLA), polyhydroxybutyrate (PHB) and polybutylene adipate terephthalate (PBAT) were coated with hydrogenated amorphous carbon layers (a-C:H) in the context of this thesis. A direct alignment of the sample surface to the source was chosen, resulting in the deposition of a robust, r-type a-C:H. At the same time, a partly covered silicon wafer was placed together with the polymers in the coating chamber and was coated. Silicon is a hard material and serves as a reference for the applied layers. Due to the hardness of the material, no mixed phase occurs between the substrate and the applied layer (no interlayer formation). In addition, the thickness of the applied layer can be estimated with the help of the silicon sample.
The deposition of the layer was realized by radio frequency plasma enhanced chemical vapor deposition (RF-PECVD). For the coating the samples were pre-treated with an oxygen plasma. Acetylene was used as precursor gas for the plasma coating. Coatings with increasing thickness in 50 nm steps from 0-500 nm were realised.
The surface analysis was performed using several techniques: The morphology and layer stability were analyzed with scanning electron microscopy (SEM) measurements. The wettability was determined by contact angle technique. In addition, the contact angles provide macroscopic information about the bond types of the carbon atoms present on the surface. For microscopic analysis of the chemical composition of the sample and layer surfaces, diffuse reflectance Fourier transform infrared spectroscopy (DRIFT) as well as synchrotron based X-ray photon spectroscopy (XPS) and near edge X-ray absorption fine structure spectroscopy (NEXAFS) were used.
All coated polymers showed several cases of layer failure due to internal stress in the layers. However, these were at different layer thicknesses, so there was a substrate effect. In addition, it is visible in the SEM images that the coatings of PLA and PHB can cause the applied layer to wave, the so-called cord buckling. This does not occur with polymer PBAT, which indicates a possible better bonding of the layer to the polymer. The chemical analyses of the layer surfaces show for each material a layer thickness dependent ratio of sp² to sp³ bonds of carbon, which alternately dominate the layer. In all polymers, the sp³ bond initially dominates, but the sp² to sp³ ratio changes at different intervals. Although the polymers were coated in the same plasma, i.e. the respective layer thicknesses (50 nm, 100 nm, ...) were applied in the same plasma process, the respective systems differed considerably from each other. A substrate effect is therefore demonstrably present. In addition, it was found that a change in the dominant bond from sp³ to sp² is an indication ofan upcoming layer failure of the a-C:H layer deposited on the polymer. In the case of PLA, this occurs immediately with change to sp² as the dominant bond; in the case of PHB and PBAT, this occurs with different delay to increased layer thicknesses (at PHB 100 nm, at PBAT approx. 200 nm.
Overall, this thesis shows that there is a substrate effect in the coating of the biodegradable polymers PLA, PHB and PBAT, since despite the same coating there is a different chemical composition of the surface at the respective layer thicknesses. In addition, a layer failure can be predicted by analyzing the existing bond.
Business Process Querying (BPQ) is a discipline in the field of Business Process Man- agement which helps experts to understand existing process models and accelerates the development of new ones. Its queries can fetch and merge these models, answer questions regarding the underlying process, and conduct compliance checking in return. Many languages have been deployed in this discipline but two language types are dominant: Logic-based languages use temporal logic to verify models as finite state machines whereas graph-based languages use pattern matching to retrieve subgraphs of model graphs directly. This thesis aims to map the features of both language types to features of the other to identify strengths and weaknesses. Exemplarily, the features of Computational Tree Logic (CTL) and The Diagramed Modeling Language (DMQL) are mapped to one another. CTL explores the valid state space and thus is better for behavioral querying. Lacking certain structural features and counting mechanisms it is not appropriate to query structural properties. In contrast, DMQL issues structural queries and its patterns can reconstruct any CTL formula. However, they do not always achieve exactly the same semantic: Patterns treat conditional flow as sequential flow by ignoring its conditions. As a result, retrieved mappings are invalid process execution sequences, i.e. false positives, in certain scenarios. DMQL can be used for behavioral querying if these are absent or acceptable. In conclusion, both language types have strengths and are specialized for different BPQ use cases but in certain scenarios graph-based languages can be applied to both. Integrating the evaluation of conditions would remove the need for logic-based languages in BPQ completely.
Das Ziel der Bachelor-Arbeit ist es, einen existierenden sechsbeinigen Kleinroboter zu programmieren, der dann in der Lage sein soll, seine Umgebung autonom zu explorieren und eine Karte selbiger zu erstellen. Zur Umgebungswahrnehmung soll ein Laserscanner integriert werden. Die Erstellung der Karte sowie die Selbstlokalisation des Roboters erfolgt durch Anbindung des Sensors an ein geeignetes SLAM (Simultaneous Localization and Mapping) Verfahren. Die Karte soll die Grundlage für die Pfadplanung und Hindernisvermeidung des Roboters bilden, die ebenfalls im Rahmen dieser Arbeit entwickelt werden sollen. Dazu werden sowohl GMapping als auch Hector Mapping verwendet und getestet.
In der Arbeit wird zudem ein xplorationsalgorithmus beschrieben, mit welchem der Roboter seine Umgebung erkunden kann. Die Umsetzung auf dem Roboter erfolgt innerhalb des ROS (Robot Operating System) Frameworks auf einem "Raspberry Pi" Miniatur-PC.
Durch die zunehmende Vernetzung von Geräten sind verteilte Anwendungen eine gängige Methode in der Software-Entwicklung. Obwohl ein Bedarf an Anonymität bei der Nutzung von verteilten Anwendungen besteht, mangelt es in der Entwicklung an der Unterstützung durch Software-Frameworks. Das Erstellen von anonymisierbar kommunizierenden Anwendungen benötigt daher meist eine aufwendige Individuallösung. Diese Arbeit integriert anonymisierbare Kommunikation mittels Remote Procedure Calls (RPCs) in ein Software-Framework für verteilte Anwendungen. Dazu wird ein Binding für das MAppLab Remote Procedure Call Framework auf der Basis des mPart-API-Frameworks konzeptuell entworfen, prototypisch implementiert und in einem Beispiel-Szenario angewendet.
Das Internet der Dinge – Internet of Things (IoT) – ist kürzlich der entfernten Vision des Ubiquitous Computing entwachsen und findet nunmehr konkret Eingang in Politik und Wirtschaft, welches sich in aufwendigen Förderprogrammen äußert. Unternehmen sehen sich mit dem von Experten vorhergesagten, gravierenden Wandel von Geschäftsmodellen konfrontiert und müssen darauf reagieren, um im Wettbewerb bestehen zu können. Obgleich daher ein Bedarf zur Strategieentwicklung bezüglich der kommenden Veränderungen in Unternehmen besteht, ist das Thema des organisationsbezogenen Wandels in Hinblick auf die neue Technologie in der akademischen Diskussion derzeit noch wenig präsent. Die vorliegende Arbeit erforscht IoT-verknüpften Wandel in Unternehmen, indem sie un- terschiedliche Arten des Wandels identifiziert und klassifiziert. Sie kombiniert zu diesem Zweck den methodischen Ansatz der gegenstandsbezogenen Theoriebildung (Grounded Theory) mit einer Diskussion und Klassifikation von identifizierten Veränderungen vor dem Hintergrund eines strukturierten Literaturüberblicks im Bereich des Wandels in Organisationen. Diesbezüglich erfolgt eine Meta-Analyse von Fallstudien mittels einer qualitativ-explorativen Kodierungs-Methode zur Identifizierung von Kategorien des organisationsbezogenen Wandels, welcher mit der Einführung von IoT in Verbindung steht. Darüber hinaus wird eine Gegenüberstellung der identifizierten Kategorien mit vorherigem technologie-verknüpftem Wandel am Beispiel von Electronic Business (e-business), Enterprise Resource Planning (ERP)-Systemen und Customer Relationship Management (CRM)-Systemen durchgeführt. Den Hauptbeitrag dieser Arbeit stellt die Entwicklung eines umfassenden Modells von organisationsbezogenem Wandel bezüglich IoT dar. Das Modell präsentiert zwei Hauptthemen des Wandels, welche nahe legen, dass persönliche, intelligente Objekte Unternehmen dadurch verändern werden, dass vermehrt personen-gebundene, mobile Geräte zum Einsatz kommen. Objekte schlagen ihren Nutzern Tätigkeiten oder den gesamten Arbeitsablauf vor und versuchen gefährliche Situationen zu vermeiden. Gleichzeitig wird die Verfügbarkeit von Informationen im Unternehmen bis zur ubiquitären Präsenz steigen. Dies wird es letztlich ermöglichen, Informationen bezüglich Objekten und Personen jederzeit und an jedem Ort zu nutzen. Als Nebenergebnis gibt die vorliegende Arbeit einen Überblick über Konzepte der wissenschaftlichen Literatur im Bereich technologie-verknüpften Wandels in Organisationen.