Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (475)
- Ausgabe (Heft) zu einer Zeitschrift (355)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (190)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (23)
- Konferenzveröffentlichung (11)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1139)
- Englisch (546)
- Mehrsprachig (4)
- Spanisch (2)
Gehört zur Bibliographie
- nein (1691) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computersimulation (11)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (335)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (176)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (145)
- Institut für Management (117)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (57)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
In dieser Arbeit wurde der Einfluss von nicht wässrigen Mahlflüssigkeiten auf Metall-Keramik-Pulvermischungen im Nassmahlprozess untersucht. Es wurden Al- und Cr-Al₂O₃-Pulvermischungen ausgewählt, um den Einfluss der Mahlflüssigkeiten auf die Mahlung von Metall-Keramik-Pulvermischungen mit einer duktilen (Aluminium) und einer spröden (Chrom) Metallkomponente zu untersuchen.
Graphen sind eine gute Wahl um strukturierte Daten zu repräsentieren. TGraphen (typisierte, attributierte, geordnete und gerichtete Graphen) sind eine sehr generische Graphenart, die in vielen Bereichen verwendet werden können. Das Java Graphenlabor (JGraLab) bietet eine effiziente Implementierung von TGraphen mit all ihren Eigenschaften. Zusätzlich stellt es, unter anderem, die Anfragesprache GReQL2 zur Verfügung, die dazu verwendet werden kann, Daten aus einem Graphen zu extrahieren. Es verfügt jedoch nicht über eine generische Bibliothek von gängigen Graphalgorithmen. Diese Studienarbeit ergänzt JGraLab durch eine generische Algorithmenbibliothek namens Algolib, die eine generische und erweiterbare Implementierung einiger wichtiger gängiger Graphalgorithmen enthält. Das Hauptaugenmerk dieser Arbeit liegt auf der Generizität von Algolib, ihrer Erweiterbarkeit und der Methoden der Softwaretechnik die benutzt wurden um beides zu erreichen. Algolib ist auf zwei Weisen erweiterbar. Bereits enthaltene Algorithmen können erweitert werden um speziellere Probleme zu lösen und weitere Algorithmen können auf einfache Weise der Bibliothek hinzugefügt werden.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
In der vorliegenden Diplomarbeit wurde gezeigt, wie sich Ambient Occlusion in einer Szene aus frei transformierbaren Starrkörpern unter Verwendung von Coherent Shadow Maps in interaktiven Frameraten berechnen und darstellen lässt. Die Vorteile von Ambient Occlusion im Vergleich zu klassischen lokalen Beleuchtungsmodellen wurden aufgezeigt - den Ansatzpunkt bildet die Approximation von Umgebungslicht und indirekter Beleuchtung durch einen konstanten Farbwert - und die vereinfachenden Annahmen, die im Vergleich zu einer Simulation globaler Beleuchtung gemacht werden, wurden nachgezeichnet - Die Gültigkeit von Ambient Occlusion beschränkt sich demnach eigentlich auf eine direkte Beleuchtung diffuser Materialien mit konstanter Leuchtdichte. Um einen umfassenden Überblick zu gewährleisten, wurden zahlreiche existierende Ansätze zur Berechnung von Ambient Occlusion ausführlich vorgestellt. Anschließend wurde auf die Berechnung der Visibilität mittels CSMs eingegangen. Es wurde gezeigt wie sich die Komprimierungsrate von CSMs durch eine gleichmäßige Verteilung der zu komprimierenden Depth Maps deutlich erhöhen lässt und ein XML-konformes Dateiformat, das die beliebige Wiederverwendung einmal komprimierter Depth Maps erlaubt, wurde eingeführt.
In den letzten Jahrzehnten wurde deutlich, dass die Welt mit einer beispiellosen, vom Menschen verursachten Biodiversitätskrise konfrontiert ist. Eine der am stärksten bedrohten Artengruppen stellen dabei die Amphibien dar, so gelten laut IUCN 41% der Amphibienarten als gefährdet. Jedoch können selbst bei Arten die als "least concern" klassifiziert sind Populationsrückgänge auf lokaler Ebene beobachtet werden. Mit einer veränderten Landnutzung und dem Einsatz von Pestiziden sind zwei der Hauptursachen für diese Gefährdung direkt mit intensiver Landwirtschaft verbunden. Daher ist das Wissen um die Situation von Amphibien in der Agrarlandschaft von entscheidender Bedeutung für Schutzmaßnahmen. In der vorliegenden Arbeit wurden Amphibienpopulationen in der durch Weinbau geprägten Gegend um Landau in der Pfalz (Deutschland) im Hinblick auf Lebensraumnutzung, Pestizidexposition, biometrische Merkmale sowie der Alters- und genetischer Populationsstruktur untersucht. Da Agrarflächen oft zur Fragmentierung von Landschaften führen, ging ich der Frage nach ob dies auch auf Weinberge zutrifft und ob eingesetzte Pestizide zur Fragmentierung beitragen, ob also eine chemische Landschaftsfragmentierung vorliegt. Durch die Telemetrierung von Erdkröten (Bufo bufo) konnte ich zeigen, dass diese Art direkt in Weinbergen gefunden werden kann, diese aber generell eher meidet. Die Analyse der genetischen Struktur von Grasfröschen (Rana temporaria) ergab, dass Weinberge als Barriere für Amphibien anzusehen sind. Um herauszufinden, ob Pestizide zu der daraus resultierenden Landschaftsfragmentierung beitragen, führte ich einen Wahlversuch im Labor durch, bei dem ich ein Vermeidungsverhalten gegenüber kontaminierten Böden fand, was zu einer chemischen Landschaftsfragmentierung führen könnte. Durch die Kombination von Telemetriedaten mit Daten über Pestizidanwendungen von lokalen Winzern konnte ich zeigen, dass ein großer Teil der Erdkröten mit Pestiziden in Kontakt kommt. Außerdem konnte gezeigt werden, dass sich die Agrarlandschaft und hier wahrscheinlich Pestizide negativ auf die Fortpflanzungsfähigkeit von Erdkröten auswirkt. Bei der Untersuchung von Fadenmolchen (Lissotriton helveticus) stellte ich fest, dass adulte Molche aus Gewässern in der Agrarlandschaft kleiner sind als Individuen aus Gewässern im Wald. Da kein Unterschied in der Altersstruktur festgestellt werden konnte, könnten diese Größenunterschiede auf suboptimale Bedingungen für Larven und/oder Jungtiere hindeuten, wenngleich Gewässer in der Agrarlandschaft geeignete Lebensräume für adulte Teichmolche sein könnten. Ich komme zu dem Schluss, dass die beste Maßnahme zum Schutz von Amphibien in der Agrarlandschaft eine heterogene Kulturlandschaft mit einem Mosaik aus verschiedenen Lebensräumen wäre, die ohne oder zumindest mit weniger Pestiziden auskommt. Grüne Korridore zwischen Populationen und Teillebensräumen würden es wandernden Individuen ermöglichen, landwirtschaftliche und damit pestizidbelastete Flächen zu vermeiden. Dies würde das Risiko der Pestizidexposition von Amphibien verringern und gleichzeitig die Fragmentierung der Landschaft und damit die Isolation von Populationen verhindern.
With 47% land coverage in 2016, agricultural land was one of the largest terrestrial biomes in Germany. About 70% of the agricultural land was cropped area with associated pesticide applications. Agricultural land also represents an essential habitat for amphibians. Therefore, exposure of amphibians to agrochemicals, such as fertilizers and pesticides, seems likely. Pesticides can be highly toxic for amphibians, even a fraction of the original application rate may result in high amphibian mortality.
To evaluate the potential risk of pesticide exposure for amphibians, the temporal coincidence of amphibian presence on agricultural land and pesticide applications (N = 331) was analyzed for the fire-bellied toad (Bombina bombina), moor frog (Rana arvalis), spadefoot toad (Pelobates fuscus) and crested newt (Triturus cristatus) during spring migration. In 2007 and 2008, up to 80% of the migrating amphibians temporally coincided with pesticide applications in the study area of Müncheberg, about 50 km east of Berlin. Pesticide interception by plants ranged between 50 to 90% in winter cereals and 80 to 90% in winter rape. The highest coincidence was observed for the spadefoot toad, where 86.6% of the reproducing population was affected by a single pesticide in winter rape during stem elongation with 80% pesticide interception by plants. Late migrating species, such as the fire-bellied toad and the spadefoot toad, overlapped more with pesticide applications than early migrating species, such as the moor frog, did. Under favorable circumstances, the majority of early migrants may not coincide with the pesticide applications of arable fields during spring migration.
To evaluate the potential effect of pesticide applications on populations of the common frog (Rana temporaria), a landscape genetic study was conducted in the vinicultural area of Southern Palatinate. Due to small sample sizes at breeding sites within viniculture, several DNA sampling methods were tested. Furthermore, the novel repeated randomized selection of genotypes approach was developed to utilize genetic data from siblings for more reliable estimates of genetic parameters. Genetic analyses highlighted three of the breeding site populations located in viniculture as isolated from the meta-population. Genetic differentiation among breeding site populations in the viniculture (median pairwise FST=0.0215 at 2.34 km to 0.0987 at 2.39 km distance) was higher compared to genetic differentiation among breeding site populations in the Palatinate Forest (median pairwise FST=0.0041 at 5.39 km to 0.0159 at 9.40 km distance).
The presented studies add valuable information about the risk of pesticide exposure for amphibians in the terrestrial life stage and possible effects of agricultural land on amphibian meta-populations. To conserve endemic amphibian species and their (genetic) diversity in the long run, the risk assessment of pesticides and applied agricultural management measures need to be adjusted to protect amphibians adequately. In addition, other conservation measures such as the creation of new suitable breeding site should be considered to improve connectivity between breeding site populations and ensure the persistence of amphibians in the agricultural land.
Klassische Fahrerassistenzsysteme (FAS) wie beispielsweise der Spurassistent oder das weit verbreitete Elektronische Stabilitätsprogramm basieren auf statischen System- und Softwarearchitekturen. Dies bedeutet, dass weder die Anzahl oder Topologie der Steuergeräte noch das Vorhandensein oder die Funktionalität von Softwaremodulen Änderungen zur Laufzeit unterliegen. Es existieren allerdings zukünftige FAS, bei denen solche Veränderungen eintreten können. Hierzu gehören beispielsweise Assistenzsysteme für Fahrzeuge mit Anhänger, da deren Steuergeräte und Softwaremodule über beide Teile des Gespanns verteilt sind. Diese neue Herausforderung kann nicht durch Ansätze, die zum Stand der Technik gehören, bewältigt werden. Stattdessen muss ein neuartiges Verfahren für das Design von solch verteilten Fahrerassistenzsystemen entwickelt werden.
Der zentrale wissenschaftliche Beitrag dieser Arbeit liegt in der Entwicklung einer neuartigen Software- und Systemarchitektur für dynamisch veränderliche FAS am Beispiel der Assistenzsysteme für Fahrzeuge mit Anhänger. Diese Architektur muss in der Lage sein, Veränderungen in der Topologie eigenständig zu erkennen und darauf zu reagieren. Hierbei entscheidet das System, welcher Grad der Assistenz und welche Nutzerschnittstelle nach dem An- oder Abkoppeln eines Anhängers angeboten werden kann. Hierzu werden neben der verfügbaren Software und Hardware die ausführbaren Assistenzfunktionalitäten analysiert und eine entsprechende Re-Konfiguration durchgeführt. Eine solche Systemanpassung kann vorgenommen werden, indem man auf die Prinzipien der Service-orientierten Architektur zurückgreift. Hierbei wird alle vorhandene Funktionalität in abgeschlossene Einheiten, so genannte Services gegossen. Diese Services stellen ihre Funktionalität über klar definierte Schnittstellen zur Verfügung, deren Verhalten durch so genannte Contracts beschrieben wird. Größere Applikationen werden zur Laufzeit durch den Zusammenschluss von mehreren solcher Services gebildet und adaptiert.
Die Arbeit beschreibt die Forschung die geleistet wurde, um die oben genannten Ziele durch den Einsatz von Service-orientierten Architekturen im automotiven Umfeld zu erreichen. Hierbei wird dem hohen Grad an Verteilung, dem Wunsch nach Wiederverwendbarkeit sowie der Heterogenität der einzelnen Komponenten durch den Einsatz der Prinzipien einer SOA begegnet. Weiterhin führt das Service-orientierte System eine automatische Re-Konfiguration im Falle einer Systemänderung durch. Statt eines der vorhandenen SOA Frameworks an die Verhältnisse im automotiven Umfeld anzupassen werden die einzelnen in SOA enthaltenen Prinzipien auf die Problemstellung angepasst. Hierbei entsteht ein eigenständiges Framework namens "Service-oriented Driver Assistance" (SODA) welches die Vorteile einer SOA mit den Anforderungen, bewährten Methoden und Standards vereint. Im Rahmen dieser Arbeit werden verschiedene SOA Frameworks analysiert und miteinander vergleichen. Außerdem wird das SODA Framework sowie dessen Anpassungen bezüglich automotiver Systeme detailliert beschrieben. Hierzu zählt auch ein Referenzmodell, welches die Begrifflichkeiten und Konzepte einführt und zueinander in Beziehung setzt sowie eine Referenzarchitektur definiert. Einige der Module dieser Referenzarchitektur wie beispielsweise das Re-Konfigurations- und das Kommunikationsmodul werden sehr detailiert in eigenen Kapiteln beschrieben. Um die Kompatibilität des Frameworks sicherzustellen wird die Integration in einen bewährten Entwicklungsprozess sowie in den Architekturstandard AUTOSAR diskutiert. Abschließend wird der Aufbau eines Demonstrators und dessen Evaluation bezüglich der Leistungsfähigkeit und Effizienz des Frameworks beschrieben.
Um unterschiedliche Anforderungen zu erfüllen, werden Softwaresysteme oft in Form einer Menge von Varianten entwickelt. Zwei gebräuchliche Ansätze für eine solche Softwareentwicklung sind das clone-and-owning und die Produktlinienentwicklung. Beide Ansätze haben Vor- und Nachteile. In vorheriger Arbeit mit anderen haben wir eine Idee vorgestellt bei der beide Ansätze verknüpft werden um Varianten, Ähnlichkeiten und Softwareklone zu verwalten. Diese Idee basiert auf einer virtuellen Plattform und Operatoren für Softwareklone. In der vorliegenden Arbeit stellen wir einen Ansatz vor um essentielle Metadaten für die Realisierung eines propagate-Operators zu aggregieren. Dafür haben wir ein System entwickelt um Ähnlichkeiten mit Annotationen zu versehen, wobei die Ähnlichkeiten aus der Historie eines Repositories extrahiert werden. Die Annotationen drücken aus wie eine Ähnlichkeit zukünftig gewartet werden soll. Abhängig vom Annotationstyp kann diese Wartung automatisiert ausgeführt oder sie muss vom Benutzer manuell betrieben werden. In dieser Arbeit beschreiben wir die automatisierte Extraktion von Metadaten und das System zur Annotation von Ähnlichkeiten; wir erklären wie das System in den Arbeitsfluss eines bestehenden Programms zur Versionierungverwaltung (Git) integriert werden kann; und abschließend stellen wir eine Fallstudie vor, die das 101haskell-System benutzt.
As Enterprise 2.0 (E2.0) initiatives are gradually moving out of the early experimentation phase it is time to focus greater attention on examining the structures, processes and operations surrounding E2.0 projects. In this paper we present the findings of an empirical study to investigate and understand the reasons for initiating E2.0 projects and the benefits being derived from them. Our study comprises seven in-depth case studies of E2.0 implementations. We develop a classification and means of visualising the scope of E2.0 initiatives and use these methods to analyse and compare projects.
Our findings indicate a wide range of motivations and combinations of technology in use and show a strong emphasis towards the content management functionality of E2.0 technologies.
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.
The paper is a study focusing on exploring which factors and examining the impact of those factors influencing the entrepreneurial intention among students in the Construction industry, specifically among students of Hanoi Construction University and Hanoi Architecture University. The study also mentions some solution of this findings for entrepreneurship in the Construction field in Vietnam that the author might think of based on this research work for future study. The Theory of planned behavior is used as the theoritical framework for this study. Both qualitative and quantitative methods are employed. The questionaire will be conducted among students of the two universities mentioned above. Then, an exploratory factor analysis (EFA) will performed to test the validity of the constructs. The research findings provide factors and their impact factors influencing the entrepreneurial intention and propose some solutions to improve the entrepreneurship in the Construction field in Vietnam.
Im Rahmen der Masterthesis „Analyse des Managements invasiver gebietsfremder Arten am Beispiel des Roten Amerikanischen Sumpfkrebses (Procambarus clarkii) während und im Anschluss an notwendige Sanierungsarbeiten am Hochwasserrückhaltebecken Breitenauer See östlich von Heilbronn“ wurde das Vorkommen des invasiven Roten Amerikanischen Sumpfkrebses am Breitenauer See umfangreich kartiert. Auch die nahegelegene Sulm mit bekanntem Vorkommen des Signalkrebses sowie das Nonnenbachsystem mit bekanntem Vorkommen des Steinkrebses wurden erfasst. Der Fokus lag auf der Beantwortung dreier Kernfragen. Zunächst wurde untersucht, ob und wie ein dauerhaftes IAS-Management (invasive alien species) des Roten Amerikanischen Sumpfkrebses am Breitenauer See nachhaltig durchgeführt werden kann, um inakzeptable ökologische Effekte zu vermeiden. Die zweite Fragestellung bezog sich auf die Wirksamkeit ergriffener Risikomanagementmaßnahmen während der Ablassaktion des Breitenauer Sees. Abschließend war fraglich, wie sich der Rote Amerikanische Sumpfkrebs verhält, wenn sein besiedeltes Gewässer trockenfällt.
Durch das fehlerhafte Vergabemanagement und das ständige Wachstum an internetfähigen Geräten sind die IPv4-Adressen ausgeschöpft. Aus diesem Grund und den neuen Anforderungen, die an die Technik des Internets gestellt werden, ist das IPv6-Protokoll entwickelt worden. Dieses bietet einen vielfach größeren Adressraum und wird das IPv4-Protokoll nach und nach ersetzen. Jedoch müssen für das neue Internetprotokoll die Routing-Protokolle angepasst werden. In dieser Ausarbeitung wird das dynamische Routing-Protokoll RIPng aus der Familie der Inter-Gateway-Protokolle (IGP) analysiert. Mithilfe dieses Protokolls tauschen die Router innerhalb eines Netzwerkes untereinander Informationen über ihre Verbindungen aus. Des Weiteren werden die Grundlagen des IPv6-Protokolls, der verwendeten Protokoll-Algorithmen und des RIPv2-Protokolls erläutert. Im praktischen Teil der Ausarbeitung werden Eigenschaften von RIPng sowie das Counting-to-Infinity-Problem genauer betrachtet.
Das performante Rendering großer Volumendaten stellt trotz stetig gestiegener Prozessorleistungen nach wie vor hohe Anforderungen an jedes zugrunde liegende Visualisierungssystem. Insbesondere trifft dies auf direkte Rendering-Methoden mithilfe des Raycasting-Verfahrens zu, welches zum einen eine sehr hohe Qualität und Genauigkeit der generierten Bilder bietet, zum anderen aber aufgrund der dafür nötigen hohen Abtastrate relativ langsam ist. In dieser Studienarbeit wird ein Verfahren zur Beschleunigung des Raycasting- Visualierungsansatzes vorgestellt, das auf adaptivem Sampling beruht. Dabei werden statische Volumendaten zunächst in einem Vorverarbeitungsschritt einer Gradientenanalyse unterzogen, um so ein Interessensvolumen zu erstellen, das wichtige und weniger wichtige Bereiche kennzeichnet. Dieses Volumen wird anschließend von einem Raycaster genutzt, um adaptiv für jeden Abtaststrahl die Schrittweite zu bestimmen.
Analyse TV-basierter Interaktion für Senioren: Umsetzung und Evaluation im Gesundheitsbereich
(2007)
In dieser Arbeit wurde nach einer detaillierten Erklärung der Begriffe Ad-hoc Network, MANET und VANET eine Auflistung und anschließend ein Vergleich der verschiedenen Routingverfahren, die in VANETs auftreten können, durchgeführt. Unter diesen Routing Verfahren wurde das Geocasting ausgesucht, weil es sich für die hohe Mobilität der einzelnen Knoten für geeignet gezeigt hat. Anschließend wurde auf die Sicherheitsanforderungen eingegangen. Dabei wurden die Begriffe Datenintegrität, Informationsvertraulichkeit, Verfügbarkeit, Verbindlichkeit, Anonymisierung und Peudomisierung eingeführt und ihre Wichtigkeit bei VANETs anhand von Beispielen gezeigt. In Abschnitt 2.4 wurden einige Angriffszenarien genannt, wobei sie in passive und aktive Angriffe kategorisiert wurden. Anhand eines Hybridmodells wurden jeder Schicht mögliche Angriffe zugeordnet und ausführlich diskutiert. Die Angriffe, die bereits definiert wurden, sind dann in einer Tabelle zusammengefasst worden. In dieser Tabelle wurde das Risiko berechnet, das ein Angriff bei VANETs hervorrufen kann. Angriffe auf der Anwendungsschicht sind mit sehr hohem Risiko angesiedelt und stellen eine große Gefahr für VANETs dar. Deshalb wurden manche dieser Angriffe dann mit konkreten Beispielen gezeichnet und dargestellt. Das Verbreiten von falschen Informationen auf Autobahnen ist das ausgewählte Szenario für das Angriffserkennungssystem. Dabei wurde ein Konzept erstellt, wie dieses IDS vorzugehen hat, wenn ein Fahrzeug eine Nachricht bekommt, um zu überprüfen, ob sie richtig oder falsch ist. Dabei wurden Randbedingungen aufgestellt, damit das IDS richtig funktioniert. Dieses Konzept wurde anhand einer Simulation realisiert, um zu überprüfen, ob es tatsächlich seine Aufgabe erfolgreich erfüllt. Nach der Beschreibung der Simulationsimplementierung und ihren wichtigsten Komponente wurden Tests durchgeführt, um die Funktionalität der Erkennung zu testen. Dabei wurde festgestellt, dass die Dichte des Verkehrs, Entfernung des Eregnismelders von der Ereigniszone und die Anzahl der empfangenen Nachrichten in jedem Fahrzeug eine große Rolle bei der Erkennung von Ereignissen spielt.
Dynamische Nachfragebündelung und diverse Auktionsformen stehen exemplarisch für neue Formen der Preisbildung im Electronic Commerce. Eine Vielzahl dynamischer Preisbildungsmechanismen aber auch neue Möglichkeiten der statischen Preisfindung im Sinne der klassischen Preispolitik (bspw. individuelle Preisdifferenzierung) werden erst durch die Nutzung neuer Informations- und Kommunikationstechnologien ermöglicht und - im geeigneten Kontext - in ökonomischer Hinsicht effizient umsetzbar. Eine sinnvolle Nutzung dieses stark erweiterten Möglichkeitsraumes erfordert die Einordnung der Angemessenheit der Nutzung einzelner Preisbildungsmechanismen aus ökonomischer Sicht. Diese Arbeit gibt einen systematischen Überblick über sowohl statische als auch dynamische Preisbildungsmechanismen. Darauf aufbauend wird ein Bezugsrahmen entwickelt, welcher wesentliche Kriterien zur Unterstützung der Wahl geeigneter Preisbildungsmechanismen enthält. Im Anschluss erfolgt der Entwurf eines Referenzmodells zur Beschreibung dynamischer und statischer Aspekte von Auktionsformen, welche üblicherweise als die zentrale Form dynamischer Preisbildungsmechanismen eingeordnet werden. Für den Zweck der Modellierung statischer Aspekte wird eine eigene Sprache in Form eines Meta-Modells entwickelt, welches geeignete Konzepte zur Beschreibung von Auktionsformen bereitstellt. Die Modellierung dynamischer Aspekte erfolgt unter Anwendung der Prozessbeschreibungselemente der Modellierungssprache MEMOOrgML. Abschließend werden die Möglichkeiten zur Adaption und Anwendung sowohl der entwickelten Prozessmodelle als auch des vorgeschlagenen Meta-Modells diskutiert.
Analyse von Geschäftsprozessen einer NPO zur Ausarbeitung der Anforderungen an eine Fachanwendung
(2008)
Im Rahmen einer Systemanalyse werden die Prozesse eines Anbieters von Ferienfreizeiten untersucht und modelliert sowie Schwachstellen ausfindig gemacht. Anhand dieser Grundlage und einer Anforderungserhebung unter den beteiligten Stakeholdern wird ein Soll-Konzept erarbeitet, welches zu Verbesserungen der allgemeinen Organisation und des Informationsflusses führen soll. Abschließend wird eine Handlungsempfehlung für das weitere Vorgehen ausgesprochen.
Unfälle verursachen jährlich einen hohen volkswirtschaftlichen Schaden für die betroffenen Personen, die Unternehmen und den Staat. Die genaue Bezifferung der Höhe des Schadens stellt ein großes Problem dar, weil die wissenschaftlichen Studien mit ihren unterschiedlichen Berechnungsmodellen stark voneinander abweichen. Angesichts der geringen Unfallhäufigkeiten im Schienenverkehr ist die Kostenberechnung in wenigen wissenschaftlichen Untersuchungen von Bedeutung. Das Ziel dieser Arbeit ist, einen Überblick über die Vorgehensweisen bei der Berechnung von Unfallkosten zu geben und die auftretenden Probleme herauszustellen. Grundsätzlich teilen sich die Unfallkosten in Personen- und Sachschäden auf. Bei den Personenschäden werden neben den materiellen Schäden, die immateriellen Schäden mitbetrachtet. Dies führt zu Schwierigkeiten in der Bewertung, weil die Verluste schwer zu beziffern sind. Zu den Hauptkomponenten der Personenschäden zählen in Unfallkostenmodellen die Schäden für den Ausfall der menschlichen Arbeitskraft, die Kosten für die medizinische Versorgung und die Kosten zur Wiederherstellung der Rechtslage. Ein Modell zur Berechnung von Personenschäden im Schienenverkehr, das ausschließlich die Schäden in Deutschland einbezieht, liegt zum jetzigen Stand der Forschung nicht vor. Vom Bundesamt für Straßenwesen (BASt) wurde ein umfangreiches Kostenmodell zur Berechnung von Unfallkosten entwickelt. Das Ergebnis dieses Modells ist, dass der Kostensatz für einen Getöteten 1,1 Millionen Euro, für einen Schwerverletzten 106.000 Euro und für einen Leichtverletzten 5.000 Euro beträgt. In dieser Arbeit wird aufgezeigt, dass dieses Modell in vielen Bereichen für den Schienenverkehr von Bedeutung ist und in diesem Kontext angewendet werden kann. Neben diesem Modell, welches auf statistisch erhobenen Kennzahlen beruht, werden verschiedene Ansätze untersucht, die den Wert eines menschlichen Lebens beschreiben. Die untersuchten Modelle unterscheiden sich in ihrer Berechnungsweise und Ergebnisse weichen voneinander ab. Bei der Berechnung der Sachschäden sind die Anschaffungskosten eines Objekts entscheidend. Zur Eingrenzung der Sachschäden liegt der Fokus in dieser Arbeit auf den Beschädigungen an der Infrastruktur und am Zugmaterial. Mithilfe des Kostenkennwertekatalogs der Deutschen Bahn AG können die Anschaffungskosten für bestimmte Infrastrukturkomponenten ermittelt werden und bilden die Grundlage für die Schadensberechnung.
Diese Bachelorarbeit wurde bei der Rasselstein GmbH in Andernach, dem größten Weißblech produzierenden Standort der Welt, durchgeführt. Sie ist zurzeit im Begriff, ein systematisches, einheitliches Geschäftsprozessmanagement einzuführen. Im Zuge dessen wurden im Rahmen dieser Arbeit ausgewählte Massenprozesse aus dem Office-Bereich zunächst durch die Nutzung verschiedener Modellierungssprachen erfasst. Es handelt sich hierbei um Dienstleistungsprozesse, die sich durch ihr vielfaches Auftreten in der Büroumgebung besonders zum Steuern und Überwachen eignen. Der Einsatz zweier Sprachen begründet sich durch die Tatsache, jeweils differenzierte Aspekte hervorheben zu können, was zu einer umfänglichen, multiperspektivischen Gesamtdarstellung der Prozesse führt. In einem nachfolgenden Schritt wurden diese Prozesse ausführlich mit Blick auf Verbesserungspotenziale analysiert, Schwachstellen entfernt und optimierte Prozesse im Sollzustand geschaffen. Es wurde dadurch beispielhaft aufgezeigt, wie Massenprozesse im Office-Bereich in einem international tätigen Industrieunternehmen untersucht werden können. Besonders durch die Aufstellung eines, aus den gewonnenen Erkenntnissen abgeleiteten, Modells soll ein wissenschaftlicher Beitrag auf dem Forschungsgebiet der Büroprozesse geleistet werden. Neben einer daraus resultierenden Unterstützung der Arbeiten der Forschungsgruppe Betriebliche Anwendungssysteme der Universität Koblenz-Landau wurde damit ebenfalls ein Beitrag für die Rasselstein GmbH generiert. Durch die Arbeiten auf dem Gebiet der Geschäftsprozessmodellierung und -optimierung, unter Zuhilfenahme eines neu eingeführten, adäquaten Prozessmanagementtools, konnten Ergebnisse erzielt werden, die von der Unternehmung für nachfolgende Projekte genutzt werden. Die Erstellung eines umfangreichen Grundlagenkapitels diente einerseits dem Zweck, bei der Rasselstein GmbH ein fundiertes Wissen über das Geschäftsprozessmanagement zu vermitteln und andererseits, besonders in ausgewählten Kapiteln, Erkenntnisse zu aktuellen Themen der Forschungsgruppe zusammenzutragen. Schließlich wurden die ausgewählten, optimierten Office-Prozesse unter dem Fokus auf die Steuerung und Überwachung derselben betrachtet. Am Beispiel der Rasselstein GmbH wurde aufgezeigt, wo Chancen, Risiken und Schwierigkeiten zur Realisierung dieser Thematik in einem Industrieunternehmen liegen.
In der aquatischen Umwelt stellen Wasser-Sediment-Grenzschichten (WSG) die wichtigsten Bereiche bezüglich der Austauschprozesse zwischen dem Wasserkörper und dem Sediment dar. Diese räumlich begrenzten Regionen sind durch starke biogeochemische Gradienten charakterisiert, die die Speziierung und den Verbleib natürlicher und artifizielle Substanzen maßgeblich bestimmen. Abgesehen von biologischen Prozessen (z.B. grabende Organismen oder Photosynthese) ist der Austausch zwischen Wasser und Sediment von Diffusion oder Kolloid-gesteuerten Transport bestimmt. Dies erfordert Methoden, die es ermöglichen, die feinen Strukturen der Grenzschichten abzubilden und zwischen den unterschiedlichen Prozessen zu unterscheiden.
Hinsichtlich neu entwickelter Substanzen, die voraussichtlich in die aquatische Umwelt gelangen werden, sind artifizielle Nanomaterialien (engineered nanomaterials; ENMs) aufgrund ihrer zunehmenden Nutzung in Produkten und Anwendungen von großer Relevanz. Da sie auf der Grundlage ihrer Größe definiert werden (<100 nm), umfassen sie eine Vielzahl verschiedenster Materialien mit unterschiedlichem Verhalten in der Umwelt. Erreichen sie aquatische Systeme, mischen sie sich mit natürlich vorkommenden Kolloiden (<1 μm), die nanoskalige Partikel beinhalten.
Ausgehend von existierenden methodischen Lücken bezüglich der Charakterisierung von ENMs (als neu aufgekommene Substanzen) und WSG (als betroffene Umweltkompartimente) war das Ziel der vorliegenden Dissertation, die Entwicklung, Validierung und Anwendung einer geeigneten analytischen Basis, um ENMs an WSG untersuchen zu können. Die Herausforderungen lagen dabei in i) der Entwicklung von Methoden, die eine räumlich hochaufgelöste Beprobung von Sedimentporen-wasser erlauben. ii) Der Bereitstellung routinetauglicher Methoden zur Charakterisierung metall-basierter ENMs und iii) der Entwicklung von Methoden zur Größenfraktionierung von Porenwässern, um größenbezogene Elementverteilungsmustern an WSG erhalten zu können.
Im ersten Teil erfolgte die Entwicklung von Filter-Probenahmesonden, die in ein neuartiges Probenahmesystem integriert wurden, welches mit einem kommerziell verfügbaren Microprofiling-system kombiniert wurde (microprofiling micro sampling system; missy). Nach umfangreicher Validierung konnte in Experimenten die Tauglichkeit des missy für eine minimal-invasive und auto-matisierte Beprobung von Sedimentporenwasser bei parallelen Messungen mittels Mikrosensoren gezeigt werden. Es wurde somit erstmal möglich, im Millimetermaßstab Multielementinformationen für Sedimenttiefenprofile zu erhalten und diese in einen direkten Zusammenhang mit verschiedenen Sedimentparametern zu setzten.Aufgrund der zu erwartenden Freisetzung von ENMs in die Umwelt, war es das Ziel, Methoden bereitzustellen, die eine Untersuchung von Transportprozessen und dem Verbleib von ENMs an WSG ermöglichen. Da standardisierte Methoden noch immer fehlen, erfolgte die Entwicklung routinetauglicher Ansätze zur Bestimmung der Massenkonzentration sowie der gelösten Fraktion von ENM-Suspensionen. Somit konnten erstmals Methoden bereitgestellt werden, die eine routinetaugliche Bestimmung von zwei der wichtigsten Eigenschaften kolloidaler Systeme ermöglichen, die ebenfalls für die Entwicklung geeigneter Risikoabschätzungen und Regularien benötigt werden.
Basierend auf dieser methodischen Grundlage erfolge die Entwicklung geeigneter Verfahren zur Bestimmung der gelösten und kolloidalen Fraktionen in Sedimentporenwässern. Dies ermöglichte es erstmalig, fraktionsbezogene Elementinformationen für Sedimenttiefenprofile in millimetergenauer Auflösung zu erhalten, was eine Unterscheidung zwischen Diffusion und kolloid-gesteuerten Transportprozessen gestattet.
Zusätzlich zu den forschungsorientierten Teilen der vorgelegten Dissertation wurden in einer weiteren, als Anhang beigefügten Publikation (Appendix III) Fragen zu einem möglichen Eintrag nanoskaliger Stoffe in Oberflächengewässer vor dem Hintergrund des aktuell gültigen Deutschen Wasserrechtes adressiert.
The purpose of this thesis is to explore the sentiment distributions of Wikipedia concepts.
We analyse the sentiment of the entire English Wikipedia corpus, which includes 5,669,867 articles and 1,906,375 talks, by using a lexicon-based method with four different lexicons.
Also, we explore the sentiment distributions from a time perspective using the sentiment scores obtained from our selected corpus. The results obtained have been compared not only between articles and talks but also among four lexicons: OL, MPQA, LIWC, and ANEW.
Our findings show that among the four lexicons, MPQA has the highest sensitivity and ANEW has the lowest sensitivity to emotional expressions. Wikipedia articles show more sentiments than talks according to OL, MPQA, and LIWC, whereas Wikipedia talks show more sentiments than articles according to ANEW. Besides, the sentiment has a trend regarding time series, and each lexicon has its own bias regarding text describing different things.
Moreover, our research provides three interactive widgets for visualising sentiment distributions for Wikipedia concepts regarding the time and geolocation attributes of concepts.
Scientific and public interest in epidemiology and mathematical modelling of disease spread has increased significantly due to the current COVID-19 pandemic. Political action is influenced by forecasts and evaluations of such models and the whole society is affected by the corresponding countermeasures for containment. But how are these models structured?
Which methods can be used to apply them to the respective regions, based on real data sets? These questions are certainly not new. Mathematical modelling in epidemiology using differential equations has been researched for quite some time now and can be carried out mainly by means of numerical computer simulations. These models are constantly being refinded and adapted to corresponding diseases. However, it should be noted that the more complex a model is, the more unknown parameters are included. A meaningful data adaptation thus becomes very diffcult. The goal of this thesis is to design applicable models using the examples of COVID-19 and dengue, to adapt them adequately to real data sets and thus to perform numerical simulations. For this purpose, first the mathematical foundations are presented and a theoretical outline of ordinary differential equations and optimization is provided. The parameter estimations shall be performed by means of adjoint functions. This procedure represents a combination of static and dynamical optimization. The objective function corresponds to a least squares method with L2 norm which depends on the searched parameters. This objective function is coupled to constraints in the form of ordinary differential equations and numerically minimized, using Pontryagin's maximum (minimum) principle and optimal control theory. In the case of dengue, due to the transmission path via mosquitoes, a model reduction of an SIRUV model to an SIR model with time-dependent transmission rate is performed by means of time-scale separation. The SIRUV model includes uninfected (U) and infected (V ) mosquito compartments in addition to the susceptible (S), infected (I) and recovered (R) human compartments, known from the SIR model. The unknwon parameters of the reduced SIR model are estimated using data sets from Colombo (Sri Lanka) and Jakarta (Indonesia). Based on this parameter estimation the predictive power of the model is checked and evaluated. In the case of Jakarta, the model is additionally provided with a mobility component between the individual city districts, based on commuter data. The transmission rates of the SIR models are also dependent on meteorological data as correlations between these and dengue outbreaks have been demonstrated in previous data analyses. For the modelling of COVID-19 we use several SEIRD models which in comparison to the SIR model also take into account the latency period and the number of deaths via exposed (E) and deaths (D) compartments. Based on these models a parameter estimation with adjoint functions is performed for the location Germany. This is possible because since the beginning of the pandemic, the cumulative number of infected persons and deaths
are published daily by Johns Hopkins University and the Robert-Koch-Institute. Here, a SEIRD model with a time delay regarding the deaths proves to be particularly suitable. In the next step, this model is used to compare the parameter estimation via adjoint functions with a Metropolis algorithm. Analytical effort, accuracy and calculation speed are taken into account. In all data fittings, one parameter each is determined to assess the estimated number of unreported cases.
Since the invention of U-net architecture in 2015, convolutional networks based on its encoder-decoder approach significantly improved results in image analysis challenges. It has been proven that such architectures can also be successfully applied in different domains by winning numerous championships in recent years. Also, the transfer learning technique created an opportunity to push state-of-the-art benchmarks to a higher level. Using this approach is beneficial for the medical domain, as collecting datasets is generally a difficult and expensive process.
In this thesis, we address the task of semantic segmentation with Deep Learning and make three main contributions and release experimental results that have practical value for medical imaging.
First, we evaluate the performance of four neural network architectures on the dataset of the cervical spine MRI scans. Second, we use transfer learning from models trained on the Imagenet dataset and compare it to randomly initialized networks. Third, we evaluate models trained on the bias field corrected and raw MRI data. All code to reproduce results is publicly available online.
The erosion of the closed innovation paradigm in conjunction with increasing competitive pressure has boosted the interest of both researchers and organizations in open innovation. Despite such rising interest, several companies remain reluctant to open their organizational boundaries to practice open innovation. Among the many reasons for such reservation are the pertinent complexity of transitioning toward open innovation and a lack of understanding of the procedures required for such endeavors. Hence, this thesis sets out to investigate how organizations can open their boundaries to successfully transition from closed to open innovation by analyzing the current literature on open innovation. In doing so, the transitional procedures are structured and classified into a model comprising three phases, namely unfreezing, moving, and institutionalizing of changes. Procedures of the unfreezing phase lay the foundation for a successful transition to open innovation, while procedures of the moving phase depict how the change occurs. Finally, procedures of the institutionalizing phase contribute to the sustainability of the transition by employing governance mechanisms and performance measures. Additionally, the individual procedures are characterized along with their corresponding barriers and critical success factors. As a result of this structured depiction of the transition process, a guideline is derived. This guideline includes the commonly employed actions of successful practitioners of open innovation, which may serve as a baseline for interested parties of the paradigm. With the derivation of the guideline and concise depiction of the individual transitional phases, this thesis consequently reduces the overall complexity and increases the comprehensibility of the transition and its implications for organizations.
Zusammenfassend lässt sich sagen, dass die Verwendung von rnAntivirenmittel dazu geführt hat, dass diese heute in der aquatischen Umwelt weit verbreitet sind. Es konnte zudem gezeigt werden, dass es beim Abbau von Antivirenmitteln in biologischen als auch in oxidativen Prozessen mittels Ozon zu keiner Mineralisierung sondern vielmehr zur Bildung von, teilweise stabilen, Transformations- bzw. Oxidationsprodukten kommt.
Dies eine der ersten Studien in der das Verhalten, und insbesondere die Transformation, eines Arzneimittels (Acyclovir) nahezu im gesamten Wasserkreislauf, von der biologischen Abwasserbehandlung bis zu weitergehenden oxidativen Verfahren umfassend beschrieben werden konnte. Die Ergebnisse zeigen deutlich die Bedeutung biologischer Transformationsprodukte als möglichen Vorläufer toxischer Oxidationsprodukte.
Der Zweck dieser Arbeit ist es, sich auf die kritischen Forschungsherausforderungen und -themen zu konzentrieren, die UI/UX-Designprinzipien umgeben, mit einem Schwerpunkt auf kulturübergreifenden Konzepten aus der Perspektive von E-Learning-Plattformen. Zu diesem Zweck betrachten wir zunächst die kulturellen Dimensionen auf der Grundlage des Hofstede-Rahmens mit dem Ziel, wichtige kulturelle Werte zu identifizieren. Als zweites Ziel der Forschung erleichtert eine Reihe von Kriterien, die so genannte Usability-Heuristik von Nielsen, die Erkennung von Usability Problemen bei der Gestaltung von Benutzeroberflächen (UI). Die Usability-Heuristiken umfassen zehn Variablen, die die Interaktion zwischen dem Benutzer und einem Produkt oder System beeinflussen. Wenn wir uns näher mit
diesen Themen befassen, werden wir in der Lage sein, eine Matrix mit Beziehungen zwischen der heuristischen Bewertung von Nielsen und dem kulturellen Rahmen von Geert Hofstede aufzudecken. Abschließend erörtern wir das mögliche Potenzial kultureller Werte zur Beeinflussung von Benutzeroberflächen für E-Learning-Plattformen. In der Tat gibt es einige Funktionen in E-Learning-Plattformen, die aufgrund der Kultur weniger diskutiert werden, obwohl sie sehr praktisch in die Plattformen integriert werden können.
Gentechnisch veränderte Pflanzen werden seit etwa 25 Jahren kommerziell angebaut. Besonders häufig werden Bt-Pflanzen verwendet, die Gene des Bakteriums Bacillus thuringiensis (Bt) enthalten und Cry-Proteine produzieren. Die Risikobewertung konzentrierte sich lange auf die terrestrische Umwelt. Erst mit der Veröffentlichung von Rosi-Marshall et al. im Jahr 2007 rückten mögliche Auswirkungen auf die aquatische Umwelt in den Fokus. In dem ersten Teil dieser Dissertation wurde die vorhandene Literatur zu lower-tier Effektstudien und Studien über den Verbleib ausgewertet, die die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt untersuchen. Es zeigen sich potentielle Effekte auf aquatische Organismen. Einige Studien wiesen außerdem den Eintrag von GV-Pflanzenmaterial in die aquatische Umwelt sowie das Herauswaschen der Toxine in das Wasser nach.
Im zweiten Teil der Dissertation wird die Wirkung des Cry1Ab-Toxins auf zwei Arten an Köcherfliegenlarven (Chaetopterryx spec., Sericostoma spec.) untersucht. Trichopteren sind phylogenetisch nah verwandt mit Lepidopteren, die häufig die Zielorganismen von Cry-Toxinen sind. Um mehrere Konzentrationen verabreichen zu können wurde eine neue Spiking-Methode eingesetzt, bei der gelöstes Cry1Ab-Toxin auf Blätter der Schwarzerle (Alnus glutinosa) aufgetragen wird. Effekte zeigten sich ins Besondere bei sublethalen Endpunkten. Der Lipidgehalt der Chaetopteryx spec. Larven war nach zwölf Wochen geringer mit zunehmender Cry1Ab Konzentration. Die Verringerung des Lipidgehalts könnte auf eine Erhöhung des Energiebedarfs für Reparaturmechanismen hindeuten. Bei Sericostoma spec. zeigte sich nach sechs Wochen eine Verlangsamung der Larvalentwicklung in der höchsten Cry1Ab Konzentration, was zu einer späteren Emergenz und damit zu Auswirkungen auf die Nahrungskette führen könnte.
Im dritten Teil der Dissertation wurde die Bewertung von Auswirkungen von GV-Pflanzen auf die aquatische Umwelt anhand von higher-tier Studien untersucht. Da higher-tier Studien bei Pestiziden bereits häufig vorkommen, wurden diese mit den bereits durchgeführten higher-tier Studien mit GV-Pflanzen verglichen. Es zeigt sich, dass es keine Standardisierung von higher-tier Studien mit GV-Pflanzen gibt, was für die Qualitätssicherung und die Vergleichbarkeit von Studien notwendig ist. Außerdem bestehen große Schwierigkeiten damit verschiedene Versuchskonzentrationen herzustellen, was für die Untersuchung einer Dosis-Wirkungsbeziehung notwendig ist.
Insgesamt zeigt sich, dass es noch erheblichen Forschungsbedarf gibt, was die Auswirkungen von GV-Pflanzen auf die aquatische Umwelt angeht. Weitere Studien sind für eine umfangreiche und aussagestarke Risikobewertung unumgänglich.
Die Arbeit beschäftigt sich mit der für Router und Kleingeräte entwickelten Linux-Distribution OpenWrt. Im ersten Teil der Arbeit wird die Erstellung von Softwarepaketen für OpenWrt erläutert und eine Anzeige- und Konfigurationskomponente für die Dateien des Quagga RIP-Daemons für die Benutzeroberfläche LuCI erstellt. Im zweiten Teil wird der Aufbau eines Testnetzwerkes mit OpenWrt Routern dokumentiert, sowie die Anbindung an VNUML-virtualisierte Netzwerke.
Die Nachhaltigkeitsberichterstattung kann als ein zentrales Element einer konsequenten Unternehmensstrategie zur Umsetzung der gesellschaftlichen Verantwortung (Corporate Social Responsibility) angesehen werden. Um die Unternehmen bei dieser Aufgabe zu unterstützen stellt die Global Reporting Initiative (GRI) mit ihren G4 Leitlinien einen Orientierungsrahmen bereit, dessen Anwendung sich allerdings für Klein und Mittelunternehmen sehr komplex gestaltet. Ein branchenspezifisches Sector Supplement für den Weinbau existiert derzeit noch nicht.
Ziel der vorliegenden Arbeit ist es, diese Forschungslücke durch die Entwicklung weinbauspezifischer Nachhaltigkeitsaspekte und Indikatoren zu schließen, um den Betrieben eine selbstständige GRI-konforme Berichterstattung zu ermöglichen.
Der Prozess zur Identifikation wesentlicher Nachhaltigkeitsaspekte und -indikatoren erfolgt mittels Erhebungs- und Auswertungsmethoden der qualitativen Sozialforschung in Form
von Workshops, betrieblichen Vorortanalysen und Experteninterviews.
Parallel dazu erfolgt eine umfassende Analyse der weinbaulichen Wertschöpfungskette in Form einer Internet- und Literaturrecherche. Diese umfasst vorrangig die ökologischen Nachhaltigkeitsaspekte als diejenigen Bestandteile weinbaulicher Tätigkeiten, die sich sowohl positiv als auch negativ auf die Umwelt auswirken können. Anschließend erfolgt die zentrale Priorisierung der identifizieren Handlungsfelder und Nachhaltigkeitsthemen durch die Stakeholder. Zur Visualisierung der bewerteten Handlungsfelder dient das Instrument der Wesentlichkeitsanalyse.
Auf dieser Basis erfolgt die Entwicklung eines Handlungsleitfadens zur Erstellung von Nachhaltigkeitsberichten in der Weinwirtschaft. Hiermit erlangen Weingüter die praktische Kompetenz ein eigenes Nachhaltigkeitsreporting anzugehen.
Im Rahmen der Arbeit wurde auch ein elektronisches Tool entwickelt, das den Betrieben die Möglichkeit eröffnet, betriebliche Umweltaspekte zu erfassen und zu bewerten. Gleichzeitig wird den Anwendern damit die Generierung eines überbetrieblichen Vergleichs der Umweltleistung ermöglicht (Benchmarking).
Eine weitere Forschungsfrage der vorliegenden Arbeit beschäftigt sich mit der Biodiversitätserfassung und -bewertung für Rebland. Hintergrund sind die bisher nur geringen Funde auf der durch das Bundesamt für Naturschutz festgelegten Kennartenlisten bzw. den HNV-Stichprobenflächen (High nature value farmland-Indikator) für Rebland.
Hierzu wurde mittels Geoinformationssystemen das Artenvorkommen in rheinland-pfälzischen Weinanbaugebieten analysiert und 30 Pflanzenarten als Indikatorarten für den Weinbau abgeleitet. Ergänzend wurden weinbergstypische, geschützte Tierarten als „Bonusarten“ identifiziert. Die Indikatorarten werden den Winzern als ein Instrument zur eigenständigen Erfassung der Biodiversität in den Weinbergen dienen und im Rahmen einer Nachhaltigkeitsberichterstattung herangezogen werden können.
Innovation verhilft einem nach Fortschritt strebenden Unternehmen zu sehr schnellen Wachstum. Sie eröffnet dem Unternehmen die Möglichkeit der Konkurrenz immer einen Schritt voraus zu sein und somit neue Kundengruppen für sich zu gewinnen. Allgemein stehen Unternehmen vor der Wahl zwischen einem offenen und einem geschlossenen Innovationsprozess. In dieser Ausarbeitung versuchen wir auf den offenen Innovationsprozess einzugehen und vor allem auf die Informations- und Innovationssysteme, die diesen Prozess unterstützen. Natürlich ergeben sich sowohl Vor- als auch Nachteile, wenn es dazu kommt für einen schnelleren und besseren Fortschritt als Unternehmen seine Innovationsprozesse offen zu legen. Daher werden wir einige Beispiele aus der Unternehmenswelt untersuchen und diese unter dem Aspekt des offenen Innovationsprozesses analysieren. Dabei zeichnen sich natürlich immer Unternehmen ab, die mit der Unterstützung von Informationssystemen einen erfolgreichen offenen Innovationsprozess meistern konnten und andere Unternehmen, bei denen das Konzept des offenen Innovationsprozess nicht geglückt ist.
Die Herstellung eines Europäischen Binnenmarktes, wie sie durch den Vertrag zur Gründung der Europäischen Gemeinschaft vorgesehen ist, beinhaltet unter anderem die freie grenzüberschreitende Erbringung von Dienstleistungen. Dem stehen jedoch mehrfach die Bestimmungen im Recht der EU-Mitgliedstaaten entgegen, die den freien Zugang von Dienstleistungserbringern aus anderen EU-Mitgliedstaaten zum nationalen Markt blockieren. Gründe für derartige Maßnahmen können sehr unterschiedlich sein, z.B.: der Schutz innerstaatlicher Anbieter, die Gewährleistung von Schutznormen des nationalen Arbeitsrechts oder die Verhinderung eines ruinösen Unterbietungswettlaufs. Die Richtlinie soll bürokratische Hindernisse abbauen, den grenzüberschreitenden Handel mit Dienstleistungen fördern und damit zur Verwirklichung des einheitlichen Binnenmarktes beitragen. Die Europäische Kommission hat am 12. Dezember 2006 die EU-Dienstleistungsrichtlinie verabschiedet. Jeder Mitgliedstaat der EU verpflichtet sich bis zum Jahr 2009 die Richtlinie umzusetzen und zugleich einen Bericht der Kommission vorzulegen. Innerhalb der Diplomarbeit werden mehrere Themenbereiche bearbeitet. Zu Beginn erfolgt eine allgemeine Einführung in die EU-Dienstleistungsrichtlinie. Als nächstes erfolgt eine Analyse aktueller Ansätze zur Umsetzung der EU-Richtlinie in Deutschland, Österreich und Großbritannien, dabei wird der Fortschritt der Länder anhand der Kernstrukturen der Direktive betrachtet. Zusätzlich wird für jedes betrachtete Land ein mögliches Anmeldeszenario, ohne die Vorgaben der Richtlinie, vorgestellt. Zur Vervollständigung der Betrachtung erfolgt zum Schluss eine länderübergreifende Auswertung. Diese wird sich sowohl auf die zurzeit vorherrschende Ländersituation als auch auf die erzielten Ergebnisse innerhalb der Direktive beziehen.
Kleine und mittelständische Unternehmen stehen durch den permanenten Wandel unserer Wirtschaft [Baumann & Schulte, 2002, S. 5] immer größeren Herausforderungen gegenüber, die sie bewältigen müssen [Bullinger & Buck, 2007]. Um diesen Herausforderungen zu begegnen, muss die Organisation der Geschäftsprozesse innerhalb des Unternehmens effektiv und effizient erfolgen, damit ein möglichst hohes Maß an Transparenz erreicht werden kann.
Um eine effektivere und effizientere Unternehmenssteuerung zu gewährleisten und damit den Unternehmer entlasten zu können, sowie Transparenz zu schaffen, muss der Einsatz von zielgerichteten Methoden zur Schaffung von Kompetenzen im Bereich Prozessmanagement gerade in kleinen und mittelständischen Handwerksunternehmen im Vordergrund stehen. Diese haben aber auf Grund ihrer geringen Größe meist nicht das Know-how und die Ressourcen, sich neben den operativen Aufgaben mit den neuen Strategien der Betriebsführung zu beschäftigen [Kuiper, et al., 2012, S. 107].
Eine Möglichkeit Transparenz zu schaffen liegt in der Erhebung von Kennzahlen. In dieser Arbeit werden verschiedene Kennzahlensysteme betrachtet und ihre Eignung für den Einsatz in kleinen und mittelständischen Unternehmen anhand von definierten Kriterien verglichen. Das Ergebnis dieses Vergleiches zeigt, dass die in der Literatur identifizierten Kennzahlensysteme für kleine und mittelständische Unternehmen nicht deren Anforderungen entsprechen. Die Systeme liefern darüber hinaus nur wenige konkrete Methoden, wie Kennzahlen in KMU erhoben werden können.
Im Zuge dieser Arbeit werden auch kleine und mittelständische Handwerksunternehmen nach deren Nutzung und Wissen in Bezug auf Kennzahlen befragt. Das Ergebnis dieser Befragung zeigt, dass in den meisten Unternehmen nur sehr wenig Wissen in diesem Bereich vorhanden ist.
Auf Grundlage der Ergebnisse der vergleichenden Analyse bestehender Kennzahlensysteme aus dem ersten Teil dieser Arbeit und der Analyse der Unternehmensbefragung, wird im letzten Teil dieser Arbeit ein Vorschlag für ein prozessorientiertes Kennzahlensystem entwickelt und vorgestellt. Dieser Vorschlag für ein Kennzahlensystem ist insbesondere auf die Bedürfnisse von kleinen und mittelständischen Handwerksunternehmen ausgerichtet. Aber auch mit diesem System können nicht alle Schwierigkeiten die kleine und mittelständische Unternehmen bei der Arbeit mit Kennzahlen haben, eliminiert werden. Das System gibt eine strukturierte Vorgehensweise vor, und erläutert konkrete Maßnahmen, die zur Überwindung von Barrieren bei der effektiven Arbeit mit Kennzahlen, durchgeführt werden können.
So genannte Risikomanagement-Informationssysteme (RMIS) unterstützen Unternehmen darin, ihr Risiko-Management unternehmensweit durchzuführen. Im vorliegenden Beitrag analysieren wir mit Hilfe der Scoring-Methode die inhaltlichen Anforderungen an ein RMIS und zeigen, wie das zu einer begründeten Auswahl für die Anschaffung eines RMIS führt. Dazu diskutieren wir erstens, welche Anforderungen an ein RMIS gestellt werden, zweitens klassifizieren wir die auf dem Markt existierenden RMIS bezüglich ihrer Anwendungsziele und drittens erstellen wir einen Anforderungskatalog und ein dreistufiges Verfahren zur Handhabung des Auswahlprozesses. Dieses wird im Rahmen einer erfolgreich durchgeführten Fallstudie im Rahmen einer Masterarbeit [11] in einem konkreten Konzern, der Telekommunikations- und Internetzugang anbietet (United Internet AG, Montabaur), erläutert und evaluiert. 1.
Die aus nachwachsenden Rohstoffen hergestellten biologisch abbaubaren Polymere Polymilchsäure (polylactic acid, PLA) und Polyhydroxybuttersäure (polyhydroxybutyrate, PHB) wurden im Rahmen dieser Arbeit mit hydrierten amorphen Kohlenstoffschichten (amorphous hydrogenated carbon, a-C:H) bei unterschiedlichen Winkeleinstellungen mit verschiedenen Dicken beschichtet. Ähnlich wie herkömmliche Polymere haben Biopolymere oft ungeeignete Oberflächeneigenschaften für industrielle Zwecke, z.B. eine geringe Härte. Für manche Anwendungen ist es daher notwendig und vorteilhaft, die Oberflächeneigenschaften von Biopolymeren unter Beibehaltung der Haupteigenschaften des Trägermaterials zu modifizieren. Eine geeignete Oberflächenmodifikation ist das Aufbringen von dünnen a-C:H Schichten. Ihre Eigenschaften hängen wesentlich vom sp²- und sp³-Hybridisierungsverhältnis der Kohlenstoffatome und dem Gehalt an Wasserstoffatomen ab. Das sp²/sp³-Verhältnis sollte in der vorliegenden Arbeit durch Variation der Beschichtungsgeometrie gesteuert werden. Da Beschichtungen bei 0°, direkt vor der Plasmaquelle, einen höheren Anteil an sp³ und indirekt (180°) beschichtete ein höheren Anteil an sp² aufweisen, wird in dieser Arbeit gezeigt, dass es möglich ist, das sp²/sp³ -Verhältnis zu kontrollieren. Dazu werden die einzelnen Proben in den Winkeln 0, 30, 60, 90, 120, 150 und 180° vor der Plasmaquelle platziert und mit einer Dauer von 2.5, 5.0, 7.5 und 10.0 Minuten beschichtet. Für den Winkeln 0° ergaben sich die Schichtdicken von 25, 50, 75 und 100 nm. Die a-C:H Schichten wurden alle mit Radiofrequenzplasma-unterstützter chemischer Gasphasenabscheidung und Acetylen als C und H Quelle abgeschieden, nachdem sie 10 Minuten lang mit einem Sauerstoffplasma vorbehandelt worden waren. Nach dieser O₂-Behandlung und der a-C:H Abscheidung werden die Oberflächen mit makroskopischen und mikroskopischen Messmethoden untersucht und die Daten anschließend analysiert. Die Oberflächenmorphologie wird mit Hilfe der Rasterelektronenmikroskopie und der Rasterkraftmikroskopie erfasst. Auf diese Weise können auch Informationen über die Stabilität der Schicht und die Oberflächenrauhigkeit gesammelt werden. Mit Kontaktwinkelmessungen (contact angle, CA) wird nicht nur die Benetzbarkeit, sondern auch die Kontaktwinkelhysterese durch Auf- und Abpumpen des Tropfenvolumens bestimmt. Durch Messung des CA von verschiedenen Flüssigkeiten und deren Vergleich werden die freie Oberflächenenergie (surface free energy, SFE) und ihre polaren und dispersiven Bestandteile bestimmt. Die Veränderungen der Barriereeigenschaften werden durch Wasserdampftransmissionstests (water vapor transmission rate, WVTR) überprüft. Die chemische Analyse der Oberfläche erfolgt zum einen durch Fourier-Transformations-Infrarotspektroskopie mit spiegelnder Reflexion und zum anderen durch Synchrotron unterstützte Techniken wie der Nahkanten-Röntgenabsorptionsfeinstruktur und der Röntgen-Photoelektronenspektroskopie. Bei der Analyse der Oberflächen nach der O₂ Behandlung, von der zunächst angenommen wurde, dass sie nur der Reinigung und Aktivierung der Oberfläche für die a-C:H Beschichtung dient, wurde festgestellt, dass die Veränderungen drastischer sind als ursprünglich angenommen. Wird PLA zum Beispiel bei 0° für 10 Minuten behandelt, steigt die Rauheit um das Fünffache. Mit zunehmendem Winkel verringert sich diese wieder, bis sie bei 180° wieder dem Ausgangswert entspricht. Bei PHB hingegen wird durchgehend ein ähnlicher Wert gemessen. Für beide Polymere lässt sich zeigen, dass der polare Anteil der SFE zunimmt. In der WVTR ist bei PLA eine Abnahme der Permeabilität und bei PHB ein Anstieg des Ausgangswertes zu beobachten. Die chemische Oberflächenanalyse zeigt, dass die O₂ Behandlung kaum Auswirkungen auf die Oberflächenbindungen hat. Insgesamt kann in dieser Arbeit gezeigt werden, dass sich die O₂ Behandlung auf die Eigenschaften der Oberfläche auswirkt und nicht ausschließlich als Reinigungs- und Aktivierungsprozess betrachtet werden kann. Bei direkter a-C:H Beschichtung (bei 0°) ist sowohl bei PLA als auch bei PHB ein Schichtversagen bei 10.0 Minuten aufgrund von Eigenspannung zu beobachten. Dies ist bei PHB in geringerem Maße auch bei 30° zu erkennen. Die Durchlässigkeit der Polymere wird bei einer fünf minütigen Beschichtung um 47% reduziert und auch die Schicht bei 10.0 Minuten führt diesen Effekt trotz auftretender Risse weiter. Die Aufbringung von a-C:H Schichten zeigt für beide Polymertypen bei direkter Beschichtung eine Dominanz von sp³-Bindungen. Mit zunehmendem Winkel nimmt diese ab und bei indirekten Beschichtungen werden sp²-Bindungen dominierend. Dieses Ergebnis ist für alle Schichtdicken ähnlich, nur der Winkel, bei dem der Wechsel der dominanten Bindung stattfindet, ist unterschiedlich. Es wird gezeigt, dass es möglich ist, die Oberflächeneigenschaften durch eine winkelabhängige Beschichtung zu steuern und somit das Verhältnis sp²/sp³ zu kontrollieren.
Durch die zunehmende Vernetzung von Geräten sind verteilte Anwendungen eine gängige Methode in der Software-Entwicklung. Obwohl ein Bedarf an Anonymität bei der Nutzung von verteilten Anwendungen besteht, mangelt es in der Entwicklung an der Unterstützung durch Software-Frameworks. Das Erstellen von anonymisierbar kommunizierenden Anwendungen benötigt daher meist eine aufwendige Individuallösung. Diese Arbeit integriert anonymisierbare Kommunikation mittels Remote Procedure Calls (RPCs) in ein Software-Framework für verteilte Anwendungen. Dazu wird ein Binding für das MAppLab Remote Procedure Call Framework auf der Basis des mPart-API-Frameworks konzeptuell entworfen, prototypisch implementiert und in einem Beispiel-Szenario angewendet.
Rechnernetze gehört zu den Fächern, die ein breites Spektrum an Anwendungsgebieten abdecken. Die vielen unterschiedlichen Protokolle sind Belege dafür. Jedes Protokoll hat sozusagen ein eigenes Anwendungsbereich und doch sind deren Aufgaben unter dem Nenner gleich. Miteinander zu Kommunizieren, Informationen auszutauschen und das möglichst auf eine sichere und schnelle Art und Weise. Als Beispiel denke man an Autos, Handys, Lokale Netze in einem kleinen Betrieb, Intranet in einer größeren Organisation oder in Netze die über Länder hinweggehen. Ein modernes Auto an sich hat schon eine Vielzahl an Bussystemen in sich integriert. CAN, LIN, FlexRay oder MOST Bus sind ein paar Stichworte dazu. Wenn man jetzt von der Autoindustrie weggeht und an die Autonomen Systeme kommt, gibt es dort ein Routing Information Protokoll, das innerhalb von Autonomen Systemen verwendet wird. Routing Information Protokoll ist eines der meist verwendeten Protokolle innerhalb von Autonomen Systemen. Das Routing Information Protokoll ist einer der zentralen Bestandteile des Forschungsbereiches der AG Steigner. Die Arbeit widmet sich unter Anderem dieser Forschungsunterstützung.Diese Studienarbeit hat das Ziel die Testumgebung XTPeer auf die VNUML Version 1.8 zu integrieren.
Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen
(2014)
In dieser wissenschaftlichen Ausarbeitung werden auf Basis einer Literaturrecherche Anreizfaktoren der Wissensverwertung für Universitäten und kleine und mittelständische Unternehmen identifiziert und beschrieben. Darüber hinaus werden im Verlauf der Arbeit verschiedene Modelle adaptiert, erstellt und fortlaufend erweitert. Dieser Prozess mündet in einem integrativen Modell. Die Grundproblematik besteht in der Notwendigkeit externe Wissensquellen in die eigenen Betriebsabläufe einfließen zu lassen. Dieses Modell der Open Innovation wird in der Literatur besonders für kleine und mittelständische Unternehmen als unausweichlich angesehen, um konkurrenzfähig zu bleiben. Die Gründe dafür werden ebenso wie die Möglichkeiten einer erfolgreichen Zusammenarbeit dargelegt und beschrieben. Deutschland weist im internationalen Vergleich eine verhältnismäßig hohe Beteiligung an Wissens- und Technologietransfers auf. Dennoch geht eine Vielzahl von Unternehmen davon aus, ihre Institution würde nicht von Wissensverwertungsmaßnahmen profitieren.
In der Literatur existiert kein Modell, welches die Verwertungsschritte und die Anreize für Universitäten und Unternehmen verbindet. Somit schließt diese Ausarbeitung die identifizierte Lücke durch das in Kapitel 4.4 abgebildete integrative Modell. Durch die ausformulierten Anreizfaktoren können sowohl Universitäten und Unternehmen als auch deren Mitarbeiter erkennen, ob eine Zusammenarbeit bezüglich eines aktuellen Forschungsthemas sinnvoll erscheint.
Während auf Basis der Literaturrecherche zunächst theoretische Grundlagen definiert werden, folgt im Anschluss eine Schilderung der Anreizfaktoren der Wissensverwertung. Dabei wird zwischen materiellen und immateriellen Anreizen unterschieden. Diese Differenzierung und die Unterscheidung von extrinsischer und intrinsischer Motivation sind im Hinblick auf die folgenden Ergebnisse von großer Bedeutung. Infolgedessen wird ein Wissensverwertungsmodell vorgestellt und auf den vorliegenden Sachverhalt angepasst, bevor mit der Erweiterung des Modells um eine zusätzliche Perspektive und dem Hinzufügen der Anreizfaktoren begonnen wird.
Durch das beschriebene Vorgehen entsteht ein integratives Modell, das sowohl für Universitäten und deren Wissenschaftler als auch für kleine und mittelständische Unternehmen und deren Mitarbeiter von Bedeutung sein kann.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Die vorliegende Arbeit beschäftigt sich mit Qualitätssicherungsansätzen für modellbasierte SRS (d.h. Lasten- und Pflichtenhefte), im Speziellen mit SRS-Modellen und SRS-Modellvisualisierungen (d.h. Diagrammen). Das Besondere an modellbasierten SRS-Dokumentationen ist, dass sie durch einen Dokumentationsgenerator aus dem Input SRS-Modell, SRS-Modellvisualisierungen und modellexternen Texten generiert werden. Um die Qualität der Dokumentation zu sichern, muss somit die Qualität der folgenden vier Faktoren gesichert werden: SRS-Modell, SRS-Modellvisualisierungen, modellexterne Texte und Dokumentationsgenerator. Ziel dieser Arbeit ist es, einen Qualitätsbegriff für SRS-Modelle und -Modellvisualisierungen zu definieren und ein Vorgehen zur Realisierung automatischer Qualitätsprüfung, -messung und -bewertung (d.h. Qualitätssicherung) im Modellierungswerkzeug Innovator aufzuzeigen.
The thesis develops and evaluates a hypothetical model of the factors that influence user acceptance of weblog technology. Previous acceptance studies are reviewed, and the various models employed are discussed. The eventual model is based on the technology acceptance model (TAM) by Davis et al. It conceptualizes and operationalizes a quantitative survey conducted by means of an online questionnaire, strictly from a user perspective. Finally, it is tested and validated by applying methods of data analysis.
Antonio Lotti und seine liturgische Kirchenmusik – Vorstudien zu Biographie und Überlieferung
(2023)
Antonio Lotti (1667-1740) gehört zu den venezianischen Komponisten, die in der älteren wie der neueren Fachliteratur ein hohes Ansehen genießen, obwohl seine Werke bis heute nur wenig bekannt sind. Eine unklare Überlieferungslage, aber auch sachfremde ästhetische Postulate verzögerten jedoch die Auseinandersetzung mit Lottis Kompositionen. Erst in neuerer Zeit gab es ein verstärktes Interesse sowohl an seinen Opern und vokaler Kammermusik als auch an seiner Kirchenmusik.
In der vorliegenden Studie wird zunächst Lottis Biographie unter Einbeziehung neuer Quellenfunde auf dem aktuellen Stand des Wissens zusammenfassend dargestellt. Der zweite Teil bietet erstmals eine Identifikation von Lottis Buchstaben- und Notenschrift nach streng philologischen Kriterien. Angesichts des nicht mehr erhaltenen Nachlasses ist dieser Teil von besonderer Bedeutung, bietet er doch die unverzichtbare Basis zur weiteren Erforschung von Lottis Kirchenmusik, ihrer Überlieferung und Faktur.
In den folgenden acht Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptographischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, besprechen im Detail den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens. Das erste Beispiel der Verschlüsselungsprotokolle ist noch nicht sehr konkret, sondern es bildet die Grundlage der folgenden Beispiele. Denn jede Anwendung setzt eines der beiden Typen von Verschlüsselungsprotokollen ein, die im ersten Beispiel erklärt werden. Dann folgen die Beispiele Sicheres World Wide Web mit SSL, die Verschlüsselung der Luftschnittstelle im Mobilfunk, die sichere Identifikation des Karteninhabers einer ec-Karte am Geldauszahlungsautomaten, der Schutz von WLANs gegen fremde Lauscher und Eindringlinge, die sichere Identifikation elektronischer Schlüssel, darunter der Funkschlüssel bei Autotüren, das kontaktlose Flugticket zum Ausdrucken einer Boardingkarte und schließlich die Verschlüsselung im Pay-TV. Die Beschreibung der kryptografischen Anwendungen dieses Kapitels wird in einem Arbeitspapier des Instituts für Wirtschafts- und Verwaltungsinformatik der Universität Koblenz-Landau weitergepflegt und dort stets aktuell zum Download bereitgehalten [Grimm, Hundacker, Meletiadou 2006]. http://www.uni-koblenz.de/FB4/Institutes/IWVI/AGGrimm/Downloads
In den folgenden neun Beispielen wird gezeigt, wie elektronische Anwendungen mithilfe kryptografischer Verfahren abgesichert werden. In jedem Beispiel erklären wir das Ziel der Verschlüsselung, erläutern den technischen Hintergrund, zeigen den Ablauf der Anwendung mit ihrer Verschlüsselung und diskutieren Stärken und Schwächen des Verfahrens.
Der Idee des Semantic Desktop liegen die gleichen Konzepte zugrunde wie dem Semantic Web mit dem Unterschied, dass sie nun auf die Applikationen und Daten eines durchschnittlichen Desktops angewendet werden. Insbesondere geht es darum, die unterschiedlichen Sichten auf Daten, die durch unterschiedliche Anwendungen erzeugt werden, über eine kontextübergreifende Beschreibung zu integrieren. Z.B. können sich zwei Programme darin unterscheiden, dass eine E-Mail-Adresse in dem einen als aktiver Link dargestellt wird, über den sich direkt eine E-Mail versenden lässt, in dem anderen aber lediglich als Zeichenkette. In der angestrebten idealen Welt des Semantic Desktop würde diese Adresse unabhängig von ihrem Anzeigekontext auch als solche erkannt und behandelt. Ziel der Arbeit ist die Entwicklung einer Integrationsmöglichkeit, die es Applikationen erlaubt, Informationen über ihre Inhalte auszutauschen. Hierzu werden zunächst die Anforderungen an die zu erarbeitende Kommunikationskomponente aufgeführt und daraus das technische Umfeld abgeleitet. Dabei wird vor allem auf die einzusetzenden Technologien eingegangen, und die angewendeten Konzepte werden erläutert. Die Entwicklung und Beschreibung einer Testanwendung schließen den technischen Teil ab. Zuletzt wird die gesamte Entwicklung kritisch diskutiert und ein Ausblick auf mögliche fortführende Entwicklungen geboten.
Diese Arbeit beschäftigt sich mit Konzepten für die Anzeige eines frei programmierbaren Kombinationsinstrumentes (FPK). Ziel ist es, die zunächst theoretischen Anzeigekonzepte auf Basis einer zu ermittelnden Hard- und Softwareplattform zu entwickeln. Zu Beginn wird die Evolution von analogen, mechanischen Kombinationsinstrumenten zum FPK beschrieben. Darauf folgt ein Überblick bereits bestehender FPK-Konzepte mit einer genaueren Sicht auf dargestellte Anzeigeelemente. Dabei wird besonders auf die Personenwarnung in der Night-view-Anzeige und eine Anzeige der ökologischen Fahreffizienz eingegangen. Die Arbeit ist Teil eines in Entwicklung befindlichen FPK-Projektes. Basierend auf den durch dieses Projekt vorgegebenen Anforderungen wird eine geeignete Soft- und Hardwareplattform für die Umsetzung eines FPK ermittelt. Dabei zeigt sich, dass die optimale Plattform nur durch eine präzise Änderungsdefinition des graphischen Systems bestimmt werden kann. Da die Projektanforderungen nicht präzise genug sind, wird Adobe Flash in Verbindung mit Actionscript zur Umsetzung der Anzeigekonzepte eingesetzt, um Plattformunabhängigkeit zu erreichen. Mittels Techniken des User-centered Designs wurden Konzepte einzelner und kombinierter Anzeigeelemente entwickelt. Dabei wurde besonders darauf geachtet, die Gestaltungsmöglichkeiten durch die Größe der zur Verfügung stehenden Anzeigefläche des FPK auszunutzen. Nach theoretischen Überlegungen bezüglich des Verwendungskontexts und wahrnehmungspsychologischer Erkenntnisse werden entwickelte Konzepte skizzenhaft beschrieben und die erstellten Animationen erläutert. Den Schluss bildet eine Evaluation einzelner Prinzipien. In einer Umfrage mit 14 Probanden konnte die intuitive Erkennbarkeit einzelner Konzepte teilweise bestätigt oder widerlegt werden. Die Wirksamkeit einer entwickelten Warnmeldung zur Steuerung der Aufmerksamkeit wurde anhand eines Tests mit Nutzern in einer Simulation bestätigt. Die Warnmeldung und andere Konzepte sind nur in einem FPK umzusetzen. So wird gezeigt, dass der Einsatz eines FPK zu einer erhöhten Sicherheit und besseren Bedienbarkeit führen kann. Das FPK sollte jedoch nicht isoliert vom restlichen HMI betrachtet werden, damit seine Möglichkeiten voll ausgeschöpft werden können. Der Einsatz echter 3-D-Graphik für FPK ist zweifelhaft. Über den Bedarf muss im Einzelfall nach einem Test auf Usability entschieden werden. Die Evaluation zeigt, dass Konventionen eines herkömmlichen Kombinationsinstrumentes auch bei der Gestaltung von Anzeigeelementen für ein FPK genutzt werden sollten, um eine Lesbarkeit zu garantieren.
Computer unterstützen Menschen zunehmend in Alltagssituationen. Ihre fortwährend voranschreitende Miniaturisierung erlaubt die Erschließung weiterer Einsatzmöglichkeiten und trägt zu einer wachsenden Bedeutung und Verbreitung in der Gesellschaft bei. Längst sind solche Systeme in vielerlei Alltagsgegenständen Realität und ihre Mobilität spielt eine immer größer werdende Rolle: von Laptops über Smartphones und Tablets hin zu am oder im Körper tragbaren Systemen (engl. wearable computing) wie Hörgeräte und Pulsuhren, unterstützen sie den Menschen aktiv und kontextsensitiv in ihrem Alltag.
Als ein Teilgebiet des wearable computing gilt die Entwicklung von Head-mounted Displays (kurz HMD). Das sind Helme oder Brillen die dem Benutzer auf einer oder mehreren Darstellungsflächen computergenerierte Bilder (virtual reality) oder mit Zusatzinformationen versehene Aufnahmen der Umgebung (enhanced reality) präsentieren. Aktuell sind HMDs welche LC-Displays nutzen weit verbreitet, innovativer sind solche welche das Bild direkt auf die Netzhaut des Benutzers projizieren. Neuste Entwicklungen deuten auf weitere Miniaturisierung des Konzepts, hin zu Kontaktlinsen mit integriertem Bildschirm. Für die Sammlung dazustellender Daten werden eine Vielzahl Sensoren hinzugezogen, wie Head-Tracker oder GPS. Auch durch Erweiterungen im Bereich der Bedienbarkeit - zum Beispiel durch Spracheingabe über ein Mikrofon - und die Steigerung des Immersionsgefühls - zum Beispiel durch stereoskopische Bilder oder integrierte Kopfhörer - wandeln sich HMDs von einfachen Anzeigen hin zu stetig besser ausgerüsteten Geräten mit ständig wachsenden Einsatzgebieten. Längst werden HMDs in einer Vielzahl von Feldern benutzt. rnIm Vordergrund dieser Arbeit steht der Entwurf und die Erstellung einer Anwendung für das Betriebssystem Apple iOS 5, als softwaretechnischen Beitrag zur Entwicklung eines HMD auf Basis von Apple-Mobilgeräten mit hochauflösendem Retina Display. Das RollerCoaster2000-Projekt soll zur Darstellung des grafischen Inhalts genutzt werden, aus Gründen einer freien Lizenz, frei zugänglichen Quellcodes sowie einer effizienten OpenGL-ES-Portierung. Dabei soll ein leichter Austausch oder die Erweiterung dieses grafischen Grundgerüsts gegeben sein um die Einsatzmöglichkeiten des HMD zu erhöhen. Über die reine Nutzung als Darstellungsmedium soll die erstellte Anwendung die vielfältigen, sensorischen Fähigkeiten und Vernetzungsmöglichkeiten aktueller Apple-Endgeräte nutzen um mehrere Geräte zu einer Datenbrille zu verbinden und die Kopfbewegungen des Benutzers auszuwerten, in der virtuellen Szene abzubilden und zwischen den Geräten synchron zu halten. Zur leichten Orientierung des Benutzers während der Bedienung soll außerdem auf die integrierte Gerätekamera zugegriffen werden.
Um die Realisierung einer den Kriterien gerecht werdenden Anwendung zu ermöglichen wird in dieser Arbeit in den Bereich der iOS-Entwicklung eingeführt. Zuerst erfolgt eine Einleitung in die historischen Entwicklungen auf dem Gebiet der mobilen Entwicklung für Apple-Mobilgeräte, von der Entstehung des objektorientierten Paradigmas hin zur heutigen Ausprägung des iOS-SDK. Letzteres ergibt sich dabei aus der Summe einer Vielzahl, stark kohärenter Komponenten. Dazu gehören die Grundsteine einer jeden iOS-Applikation, die objektorientierte, dynamische und streng typisierte Sprache Objective-C sowie den durch Apple an die eigenen Bedürfnisse angepassten LLVM-Compiler und die von Apple angepasste LLVM-Laufzeitumgebung. Zudem sind das Cocoa Framework und die Entwicklungsumgebung Xcode, die zur Erstellung mobiler Anwendungen von Apple entwickelt wurden, Gegenstand dieser Arbeit. Anhand der gewonnenen Kenntnisse im Bereich der mobilen Anwendungsentwicklung werden Anforderungen an eine Anwendung für ein HMD erhoben und die Erstellung einer, diesen Kriterien genügenden, Software beschrieben.