Filtern
Erscheinungsjahr
Dokumenttyp
- Ausgabe (Heft) zu einer Zeitschrift (267)
- Bachelorarbeit (230)
- Dissertation (222)
- Diplomarbeit (169)
- Studienarbeit (127)
- Masterarbeit (99)
- Bericht (8)
- Sonstiges (5)
- Buch (Monographie) (4)
- Wissenschaftlicher Artikel (1)
Sprache
- Deutsch (1134) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Augmented Reality (14)
- Bildverarbeitung (12)
- Simulation (10)
- Computergrafik (9)
- Robotik (9)
- Computergraphik (8)
- Computersimulation (8)
- Computervisualistik (8)
- Routing (8)
Institut
- Institut für Computervisualistik (282)
- Fachbereich 4 (182)
- Zentrale Einrichtungen (173)
- Institut für Wirtschafts- und Verwaltungsinformatik (94)
- Institut für Management (86)
- Institut für Informatik (62)
- Institut für Softwaretechnik (39)
- Fachbereich 8 (27)
- Fachbereich 5 (25)
- Fachbereich 7 (21)
Diese Arbeit liegt im Themenbereich der benutzerfreundlichen Gestaltung von Applikationen (Apps) auf mobilen Endgeräten, einem Teilgebiet der Software-Ergonomie. Dabei werden zwei Anwendungen im Rahmen einer Nutzungsevaluierung untersucht, mit dem Ziel, herauszufinden, wie eine Hilfestellung auf einem mobilen Endgerät aussehen sollte. Bei der Untersuchung wird insbesondere auf die Frage eingegangen, welche Art von Gesten zur Steuerung der Hilfefunktionen auf einem mobilen Endgerät geeignet ist. Die Studie zeigt, dass die Probanden/-innen sich eine angepasste Hilfestellung wünschen, jedoch eine umfangreiche Hilfebeschreibungen ablehnen, da sie schnell überfordert sind.
In dieser Arbeit wurden insgesamt fünf verwandte, aber variante Definitionen der Hermite-Normalform vorgestellt, angefangen bei der ursprünglichen Version von Charles Hermite. Anschließend wurden vier Basisalgorithmen zur Berechnung der Hermite-Normalform ganzzahliger Matrizen im Detail und anhand von vollständigen Beispielen präsentiert. Hierbei wurde vor allem Wert darauf gelegt, linear-algebraische Grundlagen wie beispielsweise die Verwendung von Permutationsmatrizen für unimodulare Spaltenoperationen verständlich zu vermitteln.
Das allgemeine Erreichbarkeitsproblem in Stellen/Transitions-Netzen behandelt die Frage, ob eine bestimmte Zielmarkierung aus einer anderen Markierung erreichbar ist. Die lineare Algebra als Teilgebiet der Mathematik kann zur Beschreibung und Analyse von Petri-Netzen herangezogen werden. Jedoch stellen Kreise in Netzen bei der Erreichbarkeitsanalyse ein Problem für sie dar: ob für bestimmte Transitionen erforderliche Marken sofort, erst nach dem Durchlaufen bestimmter Kreise oder gar nicht zur Verfügung stehen, ist nicht erkennbar, hat jedoch unmittelbare Auswirkungen auf die Erreichbarkeit. Es gibt verschiedene Möglichkeiten, dieses Problem linear-algebraisch anzugehen. In dieser Arbeit werden vorhandene Verfahren sowie neue Lösungsansätze auf Basis der Reproduzierbarkeit der leeren Markierung diskutiert.
Die vorliegende Fallstudie entstand als Untersuchungsobjekt zu einer Bachelorarbeit und wurde nach der eXperience Fallstudienmethodik erstellt. Ziel der Bachelorarbeit war die Identifizierung von Nutzenaspekten in diesem konkreten Fall. Im Anwenderunternehmen DOCHOUSE wurde hier eine Schnittstelle zwischen dem internen CRM-System und einem kollaborativen System für den externen Zugriff eingeführt.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer DOCHOUSE GmbH), der die Erstellung der Fallstudie motiviert hat und die FG BAS mit deren Durchführung betraute. Die Fallstudie wurde im Winter 2011 von dem Studenten Martin Surrey und Roland Diehl, wissenschaftlicher Mitarbeiter der Forschungsgruppe, erhoben.
Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse und Lotus Quickr
(2012)
Der vorliegende Arbeitsbericht "Integration von CRM-Systemen mit Kollaborations-Systemen am Beispiel von DocHouse/ BRM und IBM Lotus Quickr" ist Ergebnis einer studentischen Projektarbeit. Ziel des Projekts war es Integrationsszenarien zwischen einem CRM-System und einem Kollaborati-onssystem zu erarbeiten und eine prototypische Schnittstelle mit entsprechender Funktion zwischen den Systemen DocHouse/ BRM und IBM Lotus Quickr zu implementieren.
Ein besonderer Dank geht in diesem Zusammenhang an Herr Wolfgang Brugger (Geschäftsführer der DocHouse GmbH), der die Idee einer solchen Entwicklung hatte und die FG BAS mit deren Durchführung betraute. Die Erstellung des Konzepts und des Prototyps wurde vom Winter 2010 bis Sommer 2011 von den Studenten Björn Lilge, Ludwig Paulsen, Marco Wolf, Markus Aldenhövel, Martin Surrey und Mike Reuthers im Rahmen ihres Projektpraktikums durchgeführt. Das Projektteam wurde bei der Konzeption und Implementierung inhaltlich und organisatorisch von Dipl.-Wirt.-Inform. Roland Diehl betreut.
Die Messung des Nutzens von kollaborativen Technologien ist aufgrund der soziologischen Einflüsse auf diese Systeme eine Herausforderung. In dieser Arbeit wird die Einführung eines kollaborativen Systems in eine bestehende IT-Systemlandschaft untersucht, sodass ein Mehrwert für das Unternehmen identifiziert werden kann. Die Auswertung mit Rahmenwerken hat ergeben, dass sich der Nutzen durch eine bessere Verwaltung und Organisation von betrieblichen Ressourcen und eine Optimierung des zugrundeliegenden Prozesses bemerkbar macht.
Zusammenfassung Eine Statistik mit einer anderen zu vergleichen, ist keine einfache Angelegenheit. Besonders dann nicht, wenn die Analysen auf zwei Erhebungen basieren, die nicht dieselben Fragestellungen verfolgen, unterschiedliche Erhebungsmethoden zur Grunde liegen, und vor allem dann nicht, wenn die Stichprobengrößen sehr stark voneinander abweichen. Genau darum wird es in dieser Arbeit gehen: Eine Gegenüberstellung von einer amtlichen und einer nichtamtlichen Statistik, der Mikrozensus und das Sozio-ökonomische Panel (SOEP). Eine Hilfskonstruktion zur Untersuchung vom Fertilitätsverhalten von Frauen in Deutschland wird einmal im Mikrozensus und einmal im SOEP durchgeführt. Dabei soll überprüft werden, wie gut oder weniger gut die Übertragbarkeit eines Untersuchungsmodells vom Mikrozensus auf das SOEP möglich ist. Das SOEP bietet die Möglichkeit die Hilfskonstruktion, d.h. also die Schätzungen, auf ihre Validität zu prüfen. Im SOEP wird das Untersuchungsmodell ein zweites Mal durchlaufen, allerdings wird nicht die geschätzte Anzahl an Müttern genommen, sondern die mit dem SOEP tatsächlich festgestellten Anzahl. Auf diese Weise wird versucht die Qualität der Schätzwerte herauszufinden.
Bei der Mensch-Maschine-Interaktion spielt die Verfolgung und Identifizierung von Personen eine wichtige Rolle. Im Rahmen dieser Arbeit ist für den Serviceroboter Lisa, der Arbeitsgruppe Aktives Sehen, ein Framework erstellt worden, um verschiedene Verfahren zur Erkennung, Verfolgung und Identifizierung von Personen zu kombinieren. Zuerst wird mittels 2D Lasers an eine Beindetektion durchgeführt um Hypothesen für Personen aufzustellen. Diese Annahme muss noch durch eine Analyse der Kinect-Punktewolke bestätigt werden. Nach erfolgreicher Bestätigung wird ein Online-Boosting auf RGB-Daten zur Identifizierung durchgeführt. Die Beindaten werden zudem mit einem linearen Kalman-Filter für die Schätzung der Personenbewegung genutzt. Durch die Kombination von Kalman-Filter mit Beindetektion und Online-Boosting soll Personenverfolgung ermöglicht werden. Des Weiteren soll eine Verwechslung von Personen - durch kurzzeitige Verdeckung oder fehlerhaftes assoziieren von Beinen - verhindert werden.
Entwicklung eines Social Collaboration Analytics Dashboard-Prototyps für Beiträge von UniConnect
(2018)
Seit der vergangenen Dekade steigt die Nutzung von sogenannten Enterprise Collaboration Systems (ECS) in Unternehmen. Diese versprechen sich mit der Einführung eines solchen zur Gattung der Social Software gehörenden Kollaborationssystems, die menschliche Kommunikation und Kooperation der eigenen Mitarbeiter zu verbessern. Durch die Integration von Funktionen, wie sie aus Social Media bekannt sind, entstehen große Mengen an Daten. Darunter befinden sich zu einem erheblichen Teil textuelle Daten, die beispielsweise mit Funktionen wie Blogs, Foren, Statusaktualisierungen oder Wikis erstellt wurden. Diese in unstrukturierter Form vorliegenden Daten bieten ein großes Potenzial zur Analyse und Auswertung mittels Methoden des Text Mining. Die Forschung belegt dazu jedoch, dass Umsetzungen dieser Art momentan nicht gebräuchlich sind. Aus diesem Grund widmet sich die vorliegende Arbeit diesem Mangel. Ziel ist die Erstellung eines Dashboard-Prototyps, der sich im Rahmen von Social Collaboration Analytics (SCA) mit der Auswertung von textuellen Daten befasst. Analyseziel ist die Identifikation von populären Themen, die innerhalb von Communities oder communityübergreifend von den Plattformnutzern in den von ihnen erstellten Beiträgen aufgegriffen werden. Als Datenquelle wurde das auf IBM Connections aufbauende ECS UniConnect ausgewählt. Dieses wird vom University Competence Center for Collaboration Technologies (UCT) an der Universität Koblenz-Landau betrieben. Grundlegend für die korrekte Funktionsweise des Dashboards sind mehrere Java-Klassen, deren Umsetzungen auf verschiedenen Methoden des Text Mining basieren. Vermittelt werden die Analyseergebnisse im Dashboard durch verschiedene Diagrammarten, Wordclouds und Tabellen.
Perfluorcarbonsäuren (PFCA) sind Substanzen anthropogenen Ursprungs und werden seit mehreren Jahrzehnten verwendet. In der Literatur werden diese Verbindungen als eine neue Klasse von Umweltschadstoffen beschrieben. Ihre hohe thermische Stabilität, Oberflächenaktivität, Amphipathizität und schwache intermolekulare Wechselwirkungen führen zur Persistenz dieser organisch-chemischen Verbindungen und zur Bioakkumulation. Um diese Stoffgruppe sicher nachzuweisen, müssen zuverlässige analytische Methoden eingesetzt werden. GC-MS stellt eine kostengünstige Alternative und Ergänzung zu etablierten LC-MS/MS Methoden dar. Um jedoch die GC-MS erfolgreich einsetzen zu können, müssen die PFCA derivatisiert werden. Viele der bisher veröffentlichten Derivatisierungsreaktionen für PFCA, sind zeitaufwändig und erfordern hohe Reaktionstemperaturen und/oder toxische Reagenzien.
In der vorliegenden Dissertation wurden zwei neue Derivatisierungsreaktionen methodologisch entwickelt und optimiert. Der erste Teil der Arbeit beschreibt die Entwicklung und Optimierung der Derivatisierung mit Triethylsilanol in Wasser. Zusätzlich zur Reaktionsoptimierung, wurde die klassische Festphasenextraktion modifiziert, um die Probenvorbereitung zu vereinfachen.
Im zweiten Teil der Arbeit, wurden die Reaktionsprodukte von Perfluoroktansäure (PFOA) mit Dimethylformamid-dimethylacetal (DMF-DMA) und –diethylacetal (DMF-DEA) identifiziert. Zu diesem Zweck, wurden verschiedene massenspektrometrische Techniken angewandt. Anhand der Messergebnisse konnte gezeigt werden, dass sowohl DMF-DMA als auch DMF-DEA in Gegenwart von PFOA ein Iminium-Kation bildet, was zur Salzbildung führt. Dieses PFOA-Salz reagiert im GC-Injektor weiter zu einem entsprechenden Amin.
Abschließend, im letzten Teil der Arbeit, wurden reale Proben mit der neu entwickelten Methode auf Basis der DMF-DMA Reaktion analysiert. Die Matrixeffekte wurden ausführlich beschrieben. Die Methode wurde erfolgreich für drei Arten von Proben verwendet: Zahnseide, Textilien und Klärschlamm. Die Ergebnisse wurden mittels LC-MS/MS in einem externen Labor verifiziert. Die Unterschiede zwischen den PFCA-Werten, für eine aufgestockte Probe, wurden mittels GC-MS und LC-MS/MS gemessen und waren kleiner als 10 %.
Die Siedlungsgeschichte im Rhein-Mosel-Dreieck reicht zurück bis in die römische Zeit. Entlang der beiden großen Flüsse finden sich zahlreiche Beispiele historischer Architektur. In diese Kategorie lässt sich auch die ehemalige Burganlage im Kondertal einordnen, die sich auf dem Nordwest-Ausläufer des Hinterberges befindet. Um eine genauere Vorstellung der Burganlage zu erhalten, sollte ein Computermodell erstellt werden. Die praktische Umsetzung dieses Modells ist Thema der vorliegenden Studienarbeit. Von der Erstellung eines "einfachen 3D-Modells" mittels einer dazu mächtigen Software kam man schnell ab. Stattdessen sollte das Ziel der Arbeit ein Programm sein, dass es dem Benutzer ermöglicht die Burganlage interaktiv aufzubauen und in beliebiger Form zu verändern.
Innovationen prägen die Gesellschaft. Daher ist das Innovationsmanagement eine zentrale Aufgabe in Unternehmen. Erfolgreiche Innovationen können die Effizienz und Effektivität eines Unternehmens steigern, folglich ist das Ziel eines Innovationsmanagements, erfolgreiche Innovationen hervorzubringen. Innerhalb des Managements von Innovationen entstehen Herausforderungen, die auf Innovationsbarrieren zurückzuführen sind. Diese können zum Scheitern von Innovation führen. Um diese Art von Misserfolg zu vermeiden, kann ein Vorgehensmodell zur Identifizierung und zum Umgang mit Innovationsbarrieren einen erfolgsorientierten Innovationsprozess begünstigen.
Die Eisenbahnindustrie ist durch ihre Infrastruktur, ihre politische Abhängigkeit und Sicherheitsanforderungen gekennzeichnet. Sicherheit, als eines der Hauptthemen der Branche ist einerseits durch das Schutz- und Kontrollsystem der Politik geprägt und andererseits gestaltet und beeinflusst durch Forschung und Entwicklung von Unternehmen, Universitäten oder externen Entwicklern. Die Unfallvermeidung ist ein bedeutendes Thema in der Literatur zur Eisenbahnsicherheit, hierbei ist die Instandhaltung eines der Instrumente, die der Vorbeugung dienen. Die Prävention von Unfällen treibt den Bedarf von Innovatio-nen für die Eisenbahnsicherheit an. Dementsprechend ist die Thematik der Innovationsbarrieren auch für die Bahnindustrie von Bedeutung. Der Umgang mit diesen in dem konkreten Zusammenhang der Eisenbahnsicherheit soll anhand eines Vorgehensmodells systematisiert werden. Um das Modell insbesondere auf die Branche und den Schwerpunkt der Sicherheit abzustimmen, wird das Grundgerüst des Modells aus der Literatur erarbeitet und mit den recherchierten Kenntnissen der Branche erweitert. Basierend auf den Kenntnissen über Innovationsbarrieren im Schienenverkehr werden Schnittstellenprobleme als Ursache von den spezifischen Barrieren identifiziert. Dazu gehören beispielsweise die Interoperabilität und technische Harmonisierung zwischen Ländern wie der EU sowie die Zusammenarbeit zwischen Industrie und Wissenschaft oder externen Entwicklern. In dem Bezug zu der Branche konnte für das Modell eine Erweiterung erarbeitet werden. Es wurde herausgearbeitet, dass die Eisenbahnbranche weniger innovationsaktiv ist, als z. B. die Technologiebranche. Dies ist auf einen Mangel an Motivation zur Innovation zurückzuführen, der in der Branchenkultur aufgrund von der vergangenen Monopolstellung und dem hohen Sicherheitsanspruch zu einer risikoaversen Haltung führt. Daher muss die fortschreitende Liberalisierung des Eisenbahnmarktes abgeschlossen und die Sicherheitskonzepte neu strukturiert werden, um ein innovationsfreundliches Umfeld zu schaffen.
Letztendlich sollte das Vorgehensmodell in einer realen Umgebung getestet werden. Es wäre interessant zu erfahren, ob das entwickelte Modell zu den in dieser Arbeit entwickelten Ergebnissen hinsichtlich der mangelnden Motivation für Innovationen passt. Darüber hinaus scheint eine Validierung von Experten angebracht zu sein, da die Entwicklung des Modells von der Literaturrecherche abhängt
Die Entwicklung im Bereich der Videospiele generierte in den letzten Monaten durch innovative Konzepte und neue Steuerungsmöglichkeiten ein hohes Maß an Aufmerksamkeit. Einen Meilenstein setzte die Firma Nintendo R mit dem sogenannten WiiTM Balance BoardTM . Dies ist ein Eingabegerät in Form eines Brettes, auf das sich der Spieler stellen muss, um ein Spiel mittels seiner Körperbalance steuern zu können. Mit dieser Form der Steuerung konnten neue Spielkonzepte erstellt und umgesetzt werden. Dadurch wurden erstmals Personengruppen angesprochen, die zuvor wenig bis gar kein Interesse an Videospielen hatten. Die Computerspielebranche hingegen verfolgt weiter das Ziel eine möglichst reale Spielumgebung zu schaffen und hält an ihren gewöhnlichen Steuerungen mittels Tastatur, Maus und Joystick fest. Im Rahmen dieser Studienarbeit wurde ein 3D-Computerspiel entwickelt, welches das Konzept der Videospiele verfolgt und die Möglichkeit bietet, mittels eigener Körperbalance zu steuern.
Diese Studie leistet einen Beitrag zur Weiterentwicklung der Nachrichtenwerttheorie. Hierzu wird das Konzept der Fotonachrichtenfaktoren zunächst theoretisch aufgearbeitet und seine Plausibilität anhand verschiedener Teilbereiche der Journalismusforschung dargelegt. Darauf aufbauend wird es im Rahmen einer Inhaltsanalyse eingesetzt, die die Prüfung des erweiterten Modells der Nachrichtenwerttheorie ermöglicht. Dieses Modell geht von einem gemeinsamen Einfluss der textbasierten Nachrichtenfaktoren und der Fotonachrichtenfaktoren auf den Nachrichtenwert bzw. die journalistische Beachtung eines Beitrags aus. Ergänzend werden die Fotonachrichtenfaktoren zur Bildung von Fototypen herangezogen. Die Analysen werden am Beispiel der Kriegs- und Krisenberichterstattung deutscher Tageszeitungen durchgeführt. Dieser Themenbereich des Journalismus genießt viel Aufmerksamkeit sowohl bei Medienrezipienten als auch bei Kommunikationswissenschaftlern. Die Ergebnisse der Studie unterstützen die Grundidee der Fotonachrichtenfaktoren: Sie können, ähnlich wie die textbasierten Nachrichtenfaktoren, zu übergeordneten Bündeln zusammengefasst werden. Diese Bündel zeigen Einflüsse auf die formale Gestaltung der Fotos und können gemeinsam mit den Textnachrichtenfaktoren teilweise die journalistische Beachtung des Artikels erklären. Darüber hinaus ist die gewählte Operationalisierung der Fotonachrichtenfaktoren geeignet, Fototypen bzw. zentrale Motive der visuellen Kriegsberichterstattung deutscher Tageszeitungen zu identifizieren. Die Ergebnisse dieser Studie liefern Ausgangspunkte für weitere Fragestellungen zum Zusammenwirken der Text- und Fotonachrichtenfaktoren, der Anwendung der Zwei-Komponenten-Theorie und der Wirkung von typischen Bildmotiven.
In dieser Arbeit wird die Umsetzung und Modifikation des Verfahrens von Finlayson et al. zur Schattenentfernung in einzelnen Farbbildern unter Verwendung des Retinex-Algorithmus vorgestellt. Für die benötigte Detektion von Schattenkanten wurde ein Verfahren von Finlayson et al. umgesetzt und angepasst. Die erforderliche Kamerakalibrierung wurde dabei nicht mit Tageslicht, sondern unter Verwendung künstlicher Lichtquellen realisiert. Anhand von Campus-Bildsequenzen wird ein qualitativer Vergleich des umgesetzten Verfahrens mit dem von Weiss zur Schattenentfernung in Bildserien vorgenommen. Außerdem wird ein erster Ansatz vorgestellt, wie Verfahren zur Schattenentfernung quantitativ bewertet werden können. Die Erzeugung der benötigten Ground-truth-Daten wird mit Hilfe von Laboraufnahmen realisiert, sodass keine manuelle Segmentierung von Schatten erforderlich ist. Anhand der Ergebnisse von Experimenten wird gezeigt, inwieweit die definierten Maße eine Bewertung und einen Vergleich der beiden Verfahren erlauben.
In dieser Studienarbeit wird ein Verfahren zur Extraktion eines Oberflächenbegrenzungsmodells aus einem Tiefenbild vorgestellt. Das Modell beschreibt die im Tiefenbild dargestellte Szene durch die Geometrie und die Topologie der planaren Flächen, die in der Szene gefunden werden. Die Geometrie ist gegeben durch die Angabe der Ebenengleichungen der gefundenen Flächen sowie der 3D-Koordinaten der Eckpunkte der Polygone, die diese Flächen beschreiben. Die Informationen über die Topologie der Szene besteht aus einer Nachbarschaftsliste, die für jede Flaeche angibt, über welche Kante diese Fläche mit welcher anderen Fläche verbunden ist. Aufbauend auf einem Algorithmus zur Tiefenbildsegmentierung aus PUMA werden die Polygone bestimmt, die die Flächen der Szene beschreiben. Anschließend wird versucht, diese Polygone über Kanten und Eckpunkte zu verbinden, um ein möglichst geschlossenes Modell der Szene zu erhalten.
Dieser Arbeitsbericht behandelt die Entwicklung einer Architektur für komplexe kontextbezogene Dienste im mobilen Umfeld. Der folgende Arbeitsbericht beschreibt die grundlegende Problemstellung und einen theoretischen Lösungsansatz, der im weiteren Forschungsprozess konkretisiert, prototypisch implementiert und evaluiert wird. Durch die gestiegene Mobilität vieler Menschen besteht ein stetig steigender Bedarf an mobilen Kommunikations- und Informationsdiensten. Im mobilen Umfeld werden die meisten Mehrwertdienste zum jetzigen Zeitpunkt von den Mobilfunkprovidern angeboten. Es handelt sich primär um Dienste für den Massenmarkt, die keine nennenswerte Personalisierung zulassen. Aufgrund der funktionell einfachen Dienste und des damit verbundenen niedrigen Komforts sowie der durch die Nutzung entstehenden Kosten werden derartige Dienste nur in begrenztem Maße vom Massenmarkt angenommen. Dazu besteht keine Möglichkeit, kostengünstig kontextbezogene Dienste für spezielle Personengruppen anzubieten, da das Dienstangebot vom jeweiligen Mobilfunkprovider festgelegt wird. Diese Arbeit betrachtet nicht nur die heutigen Hemmnisse, sondern auch die Anforderungen, die einer Akzeptanz besonders von komplexen kontextbezogenen Diensten noch im Wege stehen. Ziel ist es, eine Architektur bereitzustellen, die zukünftig personalisierte Dienste ermöglichen soll. Durch die Verwendung von sensiblen Kontextinformationen bei der Diensterbringung muss bei der Konzeption dieser Architektur der Schutz der Privatsphäre als ein wichtiger Punkt betrachtet werden. Basierend auf diesen ermittelten Anforderungen schlägt diese Arbeit eine Architektur vor, die es ermöglicht, kontextbezogene Dienste geräte und providerunabhängig in einem wirtschaftlichen Umfeld, unter Berücksichtigung des Schutzes der Privatsphäre des Benutzers, anzubieten.
Der nachhaltige Grundwasserschutz erfordert ein Bewertungssystem, das Aussagen über den Ökosystemzustand zulässt. Folglich sollten, zusätzlich zu physikochemischen Analysen, auch faunistische und mikrobiologische Kriterien bei der Grundwasserbewertung berücksichtigt werden. Um die Anwendbarkeit und Eignung von Grundwasserorganismen für eine qualitative Grundwasserbewertung zu überprüfen, wurden zwischen 2002 und 2009 umfassende Untersuchungen verschiedener Grundwasservorkommen Deutschlands durchgeführt. Schwerpunkte waren die Überprüfung des Indikatorpotenzials von Grundwasserlebensgemeinschaften gegenüber Oberflächenwasser-Grundwasser-Interaktionen und anthropogener Belastungen sowie die Analyse stygofaunaler Verbreitungsmuster, als Basis und Referenz für ein faunistisches Bewertungssystem für Grundwasserlebensräume. Die Grundwasseruntersuchungen berücksichtigen lokale, regionale und biogeografische Verhältnisse. Um das Indikatorpotenzial der Grundwasserorganismen auf lokaler und regionaler Skala zu überprüfen, wurden Grundwassersysteme in Nordrhein-Westfalen (NRW) und Baden-Württemberg (BW) untersucht. Anhand der faunistischen und mikrobiologischen Daten aus quartären Lockergesteinsleitern im Erftgebiet (NRW) konnte die Sensibilität der Grundwasserorganismen gegenüber Landnutzungseffekten, z. B. extensive Landwirtschaft, aufgezeigt werden. Die Datenanalysen ergaben positive Korrelationen von organischem Material (geschätzter Detritus, TOC) und Nitrat mit der faunistischen Abundanz, Artenzahl und Diversität sowie dem Anteil grundwasserfremder Arten. Auch die bakterielle Abundanz und Diversität im Grundwasser des Erftgebiets war, verglichen mit oligotrophen Grundwassersystemen, hoch.
Die Grundwassergemeinschaften zeigen einen erhöhten Oberflächeneintrag ins Grundwasser an, der mit der starken landwirtschaftlichen Nutzung einhergeht. Die Besiedlung des Grundwassers im Alb-Donau-Kreis (BW) wurde auf regionale (Naturraum, Grundwasserleitertyp, Hydrogeologie) und lokale Effekte (Vergleich einzelner Messstellen) untersucht. Dabei reflektierte die Fauna die Stärke des hydrologischen Austauschs auf unterschiedlichen räumlichen Skalen und zeigte auch die Überlagerung regionaler und lokaler Effekte an. Demnach hatten die hohe Konnektivität der untersuchten Karst- und Lockergesteinssysteme, Landnutzung, abschirmende Deckschichten, unterschiedliches Grundwasseralter und Messstellentiefe Auswirkungen auf die Diversität und Abundanz der Gemeinschaften. Die Bakteriengemeinschaften reflektierten vor allem die Zugehörigkeit aller Messstellen zu einem Grundwassersystem. Insgesamt sind die faunistischen und mikrobiologischen Daten charakteristisch für oligotrophe, oligoalimonische Grundwässer. Die Untersuchung großräumiger Besiedlungsmuster der Grundwasserfauna ergab signifikante biogeografische Unterschiede. Die subterranen Besiedlungsmuster weichen deutlich von bestehenden Gliederungssystemen für oberirdische Landschaften oder Fließgewässerzönosen ab. Die größten Abweichungen zwischen den stygofaunalen Verbreitungsmustern und den oberirdischen Gliederungssystemen wurden vor allem in den eiszeitlich überprägten Gebieten Nord- und Süddeutschlands sowie in den Vorgebirgsregionen der zentralen Mittelgebirge beobachtet.
Anhand der erfassten Daten konnten vier Stygoregionen definiert werden, die deutlich unterschiedliche Faunengemeinschaften aufweisen: 1) das "Nördliche Tiefland", 2) die "Zentralen Mittelgebirge", 3) die "Südwestlichen Mittelgebirge" sowie 4) die "Südlichen Mittelgebirge und die Alpen". Die Ergebnisse zeigen die generelle Anwendbarkeit und Eignung der Stygofauna und der mikrobiellen Gemeinschaften für die qualitative Bewertung von Grundwasserökosystemen. Für die biologische Bewertung von Grundwassersystemen sind die faunistische Diversität, Abundanz und die Artenzusammensetzung, die Einteilung in stygobionte (obligate Grundwasserarten) und nicht-sytgobionte Arten sowie die bakterielle Abundanz geeignete Indikatoren für anthropogene Belastungen im Grundwasser. Die Entwicklung eines ökologisch orientierten Erfassungs- und Bewertungssystem für Grundwasserlebensräume ist unabdingbar für ein nachhaltiges Grundwassermanagement, welches den Erhalt unserer Grundwassersysteme und Trinkwasserversorgung gewährleistet. Die Definition von Stygoregionen ist ein entscheidender Schritt für die Entwicklung eines Bewertungs- und Referenzsystems für Grundwasserlebensräume. Die Bewertung des Ökosystemzustands von Grundwassersystemen muss jedoch auf lokaler Skala erfolgen, da die Zusammensetzung der Grundwassergemeinschaften durch die Stärke des lokalen hydrologischen Austauschs mit Oberflächensystemen geprägt ist. Von diesem hängt die Menge an verfügbarer Nahrung, Sauerstoff und konkurrierenden Oberflächenarten im Grundwasser abhängt. Zusätzlich sind Kenntnisse biogeografischer und regionaler Verhältnisse notwendig - als Referenz für das potenzielle Vorkommen von Arten und Abundanzen bestimmter Grundwassersysteme.
Bauxit ist neben anderen Rohstoffen ein bedeutender Ausgangsstoff für die Herstellung von feuerfesten Materialien. Die Verfügbarkeit von refraktären Rohstoffqualitäten ist weltweit jedoch begrenzt. Da hohe Eisengehalte einen negativen Einfluss auf die Temperaturbeständigkeit des hergestellten Feuerfestmaterials haben, ist ein maximaler Eisenoxidgehalt von 2 Gew.-% im Bauxit akzeptabel. Dies führt dazu, dass nur die nativen Rohstoffe aus wenigen Lagerstätten verwendet werden können. Um der Problematik zu hoher Eisenoxidgehalte in Naturbauxiten entgegenzuwirken, sollte im Rahmen dieser Arbeit die Möglichkeit der Bauxitaufbereitung für die Feuerfestindustrie durch Anwendung eines Säurelaugungsverfahrens untersucht werden. In bisherigen Studien zu diesem Thema wurden an einzelnen Bauxiten bereits einige Untersuchungen zur Eisenlaugung durchgeführt. Dabei wurde jedoch meist die resultierende Bauxitzusammensetzung in ihrer Gesamtheit vernachlässigt und es wurden nur unabhängig voneinander die Einflüsse einzelner Laugungsparameter auf das Laugungsergebnis untersucht. Die generierten Ergebnisse und Vorgehensweisen sind zudem nicht allgemeingültig und lassen sich nicht auf Bauxite anderer chemischer oder mineralogischer Zusammensetzung übertragen.
Um die bei der Aufbereitung von Naturbauxiten bestehenden offenen Fragen zu klären, wurden im Rahmen dieser Arbeit Laugungsversuche mit Salzsäure an fünf verschiedenen Bauxiten durchgeführt. Durch die Nutzung computergestützter statistischer Versuchsplanung konnte für jeden Bauxit ein individuelles Modell zur Vorhersage der optimalen Faktoreinstellungen generiert werden. Als Faktoren wurden die Säurekonzentration, das Feststoff-Säure-Verhältnis, die Laugungstemperatur, die Laugungszeit und die Kornfraktion untersucht. Die in diesem Zusammenhang entwickelte allgemeine Planungsgrundlage zur Bauxitaufbereitung enthält alle notwendigen Faktoren, sinnvolle Faktoreinstellungen und die innerhalb der Planung und Auswertung zu berücksichtigenden Effekte. Es konnte gezeigt werden, dass ausgehend von dieser Planungsgrundlage ein signifikantes, individuelles Modell für jeden der untersuchten Bauxite erstellt werden kann, welches die optimalen Laugungseinstellungen für den jeweiligen Bauxit vorhersagt. Zudem wurde festgestellt, dass die Übertragung eines bereits erstellten Modells auf einen anderen Bauxit ähnlicher Zusammensetzung möglich ist. Ausgehend von den durch die Laugungsversuche und die Modellanpassungen erhaltenen Ergebnissen konnten, in Kombination mit weiteren Ergebnissen zur Strukturanalyse der Bauxite, Erkenntnisse über die Laugbarkeit verschiedener Aluminium- und Eisenminerale aus Bauxit gewonnen werden.
Zur Entwicklung eines möglichst nachhaltigen Säurelaugungsverfahrens wurde außerdem exemplarisch die Möglichkeit der Aufbereitung der nach dem Laugungsprozess anfallenden Säure getestet. Hier konnte gezeigt werden, dass durch Flüssig-Flüssig-Extraktion mehr als 99 % des in der Lösung vorliegenden Eisens extrahiert und die aufbereitete Säure anschließend wieder zur Laugung verwendet werden kann.
Die RoboCup Rescue Liga wurde mit dem Ziel eines internationalen Austauschs zur Entwicklung von Rettungsrobotern gegründet. In Katastrophenregionen sollen diese Roboter verschüttete Opfer orten, deren gesundheitliche Verfassung erkennen und diese Informationen rechtzeitig an Rettungskräfte weitergeben.
An der Universität Koblenz wird seit mehreren Jahren der Rettungsroboter Robbie entwickelt. Über die gezielte Ansteuerung von Sensoren kann er Informationen über seine Umgebung sammeln und mit Hilfe dieser Informationen autonom in unbekannten Regionen agieren. Dafür erstellt Robbie eine 2D-Karte seiner Umgebung, um anhand dieser Karte navigieren und sich selbst lokalisieren zu können. Diese Karte stößt allerdings bei der Navigation über unebenes Gelände (wie z.B. Geröllhaufen) und spätestens in mehrschichtigen Katastrophengebieten auf ihre Grenzen, weswegen eine 3D-Kartierung benötigt wird.
Anhand des RoboCup Rescue Szenarios wird im Rahmen dieser Bachelorarbeit ein 3D-Kartierungsalgorithmus implementiert und hierfür die Probleme der 2D- und 3D-Kartierung ausführlich untersucht.
Die Diplomarbeit "Entwicklung eines Telemedizinregister-Anforderungskatalog" behandelt die Erstellung eines Anforderungskatalogs für die Entwicklung eines im telemedizinischen Bereich anwendbaren Registers zur Unterstützung von Abrechnungsvorgängen. Diese werden im deutschen Gesundheitswesen zwischen telemedizinischen Dienstleistern und Kostenträgern in Zusammenhang mit der integrierten Versorgungsform durchgeführt, um die Finanzierung durchgeführter telemedizinischer Behandlungen abzurechnen. Dabei dient das Telemedizinregister als eine datenvorhaltende Speicherstelle, die Kopien von Behandlungsdaten telemedizinischer Dienstleister aufnimmt und deren Verarbeitungsprozesse im Register protokolliert. Den beteiligten Kostenträgern wird Zugriff auf dieses Telemedizinregister gewährt, um die Validität der Therapiedaten überprüfen zu können, die ihnen durch telemedizinische Dienstleister zur Analyse vorgelegt werden. Die Arbeit beschreibt die theoretischen Grundlagen der Bereiche Datenschutz und Telemedizin, mit denen Anforderungslisten und ein SOLL-Modell eines Telemedizinregisters erstellt werden. Dieses Modell setzt sich aus Datenmodellen und Prozessbeschreibungen zusammen und wird mit Hilfe eines praktischen Beispiels einer telemedizinischen Behandlung überprüft. Die Integration verschiedener Standards, welche bei Datenaustausch-Prozessen eingesetzt werden können, ist ein weiterer Teil zur Konzeptionierung des Telemedizinregisters, zu dem mögliche Anwendungsfelder zur Erweiterung der Funktionalität beschrieben werden.
In dieser Studienarbeit sollen verschiedene Routing-Lookup Algorithmen aufgelistet und verglichen werden, mit denen eine Routing-Tabelle erstellt und angepasst werden kann. Dazu werden hier nur dynamische Verfahren in Betracht gezogen. Allgemein wird die Funktionsweise einer Routing-Tabelle erklärt und drei Verfahren bzw. Algorithmen analysiert und bewertet. Die Algorithmen werden anhand von Beispielen erläutert und in einem abschließenden Kapitel gegenüber gestellt. Dabei werden die Vor- und Nachteile der einzelnen Verfahren aufgelistet.
Veränderungen in dem komplexen Wirkungsgefüge eines Agrarökosystems können erhebliche Auswirkungen auf die lokale Biozönose zur Folge haben. Die Überdachung von Obstkulturen mit Netzen oder Folien zum Schutz vor Hagel und Regen stellt eine solche Veränderung dar. Im Rahmen dieser Dissertation wurde anhand einer biozönotischen Risikoanalyse der Einfluss intensiver Landnutzung in Obstkulturen sowie der Einfluss von Kulturschutzeinrichtungen auf die drei Gilden tagaktive Greifvögel, insektivore Vögel und Arthropoden untersucht. Greifvögel, insektivore Vögel und räuberische Arthropoden üben als Prädatoren wichtige Regulationsfunktionen im Nahrungsnetz eines Ökosystems aus. Arthropoden stellen zudem eine wichtige Nahrungsressource dar. Arten aller drei Gilden gelten als Bioindikatoren für Veränderungen im Ökosystem. Phytophage Arthropoden können landwirtschaftlich genutzte Monokulturen erheblich schädigen, weshalb die konventionelle Landwirtschaft zur gezielten Tötung solcher Schädlinge Insektizide einsetzt. Pestizidbehandlungen haben allerdings oft auch Auswirkungen auf viele Nützlinge und andere Organismen im Agrarökosystem.
Die visuelle Erfassung beider Vogelgilden sowie das Fangen der Arthropoden mit Boden- und Flugfallen erfolgte von März bis Juli in den Jahren 2011-2013 auf fünf Untersuchungsflächen im rheinland-pfälzischen Obstanbaugebiet Mainz-Bingen. Es wurden zwei benachbarte Apfelkulturen (eine Kontrollfläche und eine Versuchsfläche mit Hagelschutznetz) und zwei benachbarte Kirschkulturen (eine Kontrollfläche und eine Versuchsfläche ab 2012 mit Folien-Netz-Überdachung) sowie eine nahegelegene Streuobstfläche im lokalen NSG Höllenberg als naturnahe Kontrollfläche untersucht. Zusätzlich wurden im ersten Untersuchungsjahr vom 15. März bis 28. Juli 2011 auf allen Flächen die Ergebnisse einer täglichen automatischen akustischen Erfassung durch ein Stereo-Aufnahmegerät („Songmeter 2“, Wildlife Acoustics) mit denen einer wöchentlichen rein visuellen Erfassung der Vögel verglichen. Es gab keine signifikanten Unterschiede in Detektionseffizienz und Arterfassung der Avifauna zwischen beiden Methoden. Die lokale α-Diversität nach Simpson unterschied sich ebenfalls nicht signifikant zwischen beiden Methoden. Das akustische Monitoring detektierte mehr seltene (=weniger als zehn Funde im Untersuchungszeitraum) Vogelarten; 29% der Arten wurden ausschließlich akustisch nachgewiesen und knapp 13% ausschließlich visuell. Sieben Vogelarten unterschieden sich signifikant in ihrer ermittelten Abundanz zwischen beiden Methoden: Bachstelze, Feldlerche, Mauersegler und die Greifvögel Mäusebussard und Turmfalke waren besser bzw. der Schwarzmilan ausschließlich mit dem visuellen Monitoring zu erfassen, während der Fasan ausschließlich durch das akustische Monitoring nachgewiesen werden konnte. Für die Abundanzschätzung von 48 Vogelarten war es unerheblich, ob sie akustisch oder visuell erfasst wurden. Da seltene Arten bei biozönotischen Untersuchungen keine wesentliche Rolle spielen und die Auswertung der Akustikaufnahmen sehr zeitaufwändig war, wurden für die Risikoanalyse nur die visuell ermittelten Daten berücksichtigt.
Für die Greifvogel-Gilde wurden sechs Arten nachgewiesen, fünf auf der Kirschkontrollfläche und jeweils vier Arten auf den anderen Flächen. Die drei häufigsten Arten waren Mäusebussard, Turmfalke und Schwarzmilan. Greifvögel wurden im Luftraum der Flächen oder auf Sitzwarten wie Zäunen, Pfählen, Bäumen und Kulturschutzeinrichtungen bei der Nahrungssuche oder beim Revierverhalten beobachtet. Es konnte kein Einfluss der Landnutzung auf Greifvögel aufgezeigt werden, Diversität und Abundanz unterschieden sich nicht zwischen den Obstkulturen und der naturnahen Streuobstfläche im NSG. Ein Einfluss von Kulturschutzeinrichtungen auf Greifvögel konnte ebenfalls nicht nachgewiesen werden, die überdachten Flächen wurden genauso oft frequentiert wie die Kontrollflächen. Greifvögel überflogen innerhalb ihrer großen Aktionsräume auch die überdachten Obstkulturen zur Nahrungssuche und wurden weiterhin bei der Ansitzjagd am Rand der Versuchsflächen gesichtet. Zudem wurde der Turmfalke beim Ansitzen unter der Folien-Netz-Überdachung der Kirschkultur sowie beim Fressen auf dieser Überdachung sitzend beobachtet. Für die Insektivoren-Gilde wurden 52 Vogelarten nachgewiesen. Die Streuobstfläche im NSG wies die höchste Artenzahl von 40 auf, gefolgt von der Apfelkontrollfläche mit 27 Arten. Die Apfelversuchsfläche wies dagegen eine geringere Artenzahl von 19 auf, während die Artenzahlen beider Kirschkulturen mit 19 und 18 annähernd gleich gewesen sind. Die zehn häufigsten Arten waren in Reihenfolge ihrer Abundanz Kohlmeise, Star, Rabenkrähe, Amsel, Mauersegler, Bachstelze, Blaumeise, Buchfink, Feldlerche und Stieglitz. Insektivore Vögel wurden überwiegend nahrungssuchend am Boden und in Bäumen der Flächen oder beim Revierverhalten wie Singen, Rufen und Vigilanz auf Sitzwarten Zäunen, Pfählen sowie Kulturschutzeinrichtungen beobachtet. Die intensive Landnutzung der Obstkulturen führte im Vergleich zur naturnahen Streuobstfläche im NSG sowohl auf der Apfel- als auch auf der Kirschkontrollfläche zu einer hochsignifikant geringeren monatlichen Vogelartenzahl. Eine signifikant niedrigere Abundanz der insektivoren Vögel wies jedoch nur die Kirschkontrollfläche auf. Es wurden negative Effekte der intensiven Landnutzung auf die monatliche Abundanz von Gartenrotschwanz, Amsel und Blaumeise nachgewiesen, welche in den Obstkulturen hochsignifikant seltener beobachtet wurden. Der Einsatz von Kulturschutzeinrichtungen führte lediglich beim Hagelschutznetz zu einer zusätzlichen signifikanten Verringerung der monatlichen Vogelartenzahl. Die Folien-Netz-Kombination zeigte keinen signifikanten Einfluss auf die Vogeldiversität. Die Gesamtabundanz der Insektivoren-Gilde blieb in beiden Obstkulturen von Kulturschutzeinrichtungen unbeeinflusst. Abundanzen einzelner Arten zeigten jedoch abweichende Ergebnisse: Die Ringeltaube wurde unter dem Hagelschutznetz der Apfelkultur im Vergleich zur Kontrollfläche gar nicht beobachtet. Die Kohlmeise kam unter der Folien-Netz-Überdachung der Kirschkultur signifikant seltener vor, während der Wiedehopf hier etwa zehnmal häufiger vorkam als auf der Kirschkontrollfläche und der Streuobstfläche im NSG Höllenberg. Entscheidender Faktor für die starke Nutzung der Kirschkulturen waren für den Wiedehopf die vorhandenen vegetationsfreien Bodenbereiche, in denen diese Art bevorzugt nach Nahrungsinsekten sucht. Störungen durch die bei Wind laut flatternde Folienüberdachung auf darunter nahrungssuchende Wiedehopfe wurden nicht beobachtet.
Für die Arthropoden-Gilde wurden 185963 Individuen aus 18 Gruppen gefangen. Der Großteil von 79% dieser Individuen ließ sich Springschwänzen, Ameisen, Zweiflüglern oder Käfern zuordnen. Weitere 20% verteilten sich auf Webspinnen, Asseln, Hautflügler, Milben, Doppelfüßer, Weberknechte, Schnabelkerfe und Ohrwürmer. Die restlichen sechs Arthropodengruppen stellten den restlichen Individuenanteil von 0,9%. Hinsichtlich der determinierten 12910 Käfer-Imagines aus 403 Arten waren Artenzahl, Diversität sowie Anzahl seltener Arten und Habitatspezialisten sandiger Lebensräume in allen drei Untersuchungsjahren auf der naturnahen Streuobstfläche im NSG Höllenberg am höchsten. Die über Bodenfallen ermittelte Arthropoden-Trockenbiomasse lag je nach Fläche bei 9 bis 26 Gramm pro Jahr und die über Flugfallen ermittelte Arthropoden-Trockenbiomasse bei 0,6 bis 4,8 Gramm pro Jahr. Obwohl im Mittel jährlich 5,8 Pestizidbehandlungen in den Kirschkulturen sowie 14,6 Behandlungen in den Apfelkulturen durchgeführt wurden und Insektizide dabei anteilig bis zu 57% ausmachten, konnte kein Einfluss der intensiven Landnutzung mit dem Einsatz von Pestiziden auf die Arthropoden-Trockenbiomasse nachgewiesen werden. Kulturschutzeinrichtungen zeigten ebenfalls keinen Einfluss auf die Arthropoden-Trockenbiomasse.
Diese biozönotische Risikoanalyse belegt, dass der Einsatz von Kulturschutzeinrichtungen zumindest bei Hagelschutznetzen langfristig nachweisbare negative Effekte auf die Diversität von insektivoren Vögeln bewirken kann, welche über die vorhandenen negativen Folgen der intensiven Landnutzung in Obstkulturen hinausgehen. Da intensiv bewirtschaftete Obstkulturen bereits ohne Kulturschutzeinrichtungen zu einer Verarmung der lokalen Biozönose führen, sollte aus ökologischer Sicht vor der Errichtung von Kulturschutzeinrichtungen verlässlich abgewogen werden, ob der zusätzliche Verlust an Biodiversität durch die Verbesserung von Flächenstrukturen der Obstkulturen kompensierbar ist.
Die nächste Generation des World Wide Web, das Semantic Web, erlaubt Benutzern, Unmengen an Informationen über die Grenzen von Webseiten und Anwendungen hinaus zu veröffentlichen und auszutauschen. Die Prinzipien von Linked Data beschreiben Konventionen, um diese Informationen maschinenlesbar zu veröffentlichen. Obwohl es sich aktuell meist um Linked Open Data handelt, deren Verbreitung nicht beschränkt, sondern explizit erwünscht ist, existieren viele Anwendungsfälle, in denen der Zugriff auf Linked Data in Resource Description Framework (RDF) Repositories regelbar sein soll. Bisher existieren lediglich Ansätze für die Lösung dieser Problemstellung, weshalb die Veröffentlichung von vertraulichen Inhalten mittels Linked Data bisher nicht möglich war.
Aktuell können schützenswerte Informationen nur mit Hilfe eines externen Betreibers kontrolliert veröffentlicht werden. Dabei werden alle Daten auf dessen System abgelegt und verwaltet. Für einen wirksamen Schutz sind weitere Zugriffsrichtlinien, Authentifizierung von Nutzern sowie eine sichere Datenablage notwendig.
Beispiele für ein solches Szenario finden sich bei den sozialen Netzwerken wie Facebook oder StudiVZ. Die Authentifizierung aller Nutzer findet über eine zentrale Webseite statt. Anschließend kann beispielsweise über eine Administrationsseite der Zugriff auf Informationen für bestimmte Nutzergruppen definiert werden. Trotz der aufgezeigten Schutzmechanismen hat der Betreiber selbst immer Zugriff auf die Daten und Inhalte aller Nutzer.
Dieser Zustand ist nicht zufriedenstellend.
Die Idee des Semantic Webs stellt einen alternativen Ansatz zur Verfügung. Der Nutzer legt seine Daten an einer von ihm kontrollierten Stelle ab, beispielsweise auf seinem privaten Server. Im Gegensatz zum zuvor vorgestellten Szenario ist somit jeder Nutzer selbst für Kontrollmechanismen wie Authentifizierung und Zugriffsrichtlinien verantwortlich.
Innerhalb der vorliegenden Arbeit wird ein Framework konzeptioniert und entworfen, welches es mit Hilfe von Regeln erlaubt, den Zugriff auf RDF-Repositories zu beschränken. In Kapitel 2 werden zunächst die bereits existierenden Ansätze für die Zugriffssteuerung vertraulicher Daten im Sematic Web vorgestellt. Des Weiteren werden in Kapitel 3 grundlegende Mechanismen und Techniken erläutert, welche in dieser Arbeit Verwendung finden. In Kapitel 4 wird die Problemstellung konkretisiert und anhand eines Beispielszenarios analysiert.
Nachdem Anforderungen und Ansprüche erhoben sind, werden in Kapitel 6 verschiedene Lösungsansätze, eine erste Implementierung und ein Prototyp vorgestellt. Abschließend werden die Ergebnisse der Arbeit und die resultierenden Ausblicke in Kapitel 7 zusammengefasst.
Echtzeitsysteme spielen in der heutigen Zeit in vielen Anwendungsbereichen eine bedeutende Rolle. Beispiele hierfür finden sich in der Robotik, der Fabrikautomation, der Medizintechnik, aber auch in Bereichen aus dem täglichen Leben, wie im Automobilbereich oder in der Mobilkommunikation. Trotz der ständig wiederkehrenden Begegnung mit ihnen im Alltag, sind Echtzeitsysteme häufig innerhalb von größeren Systemen eingebettet und können somit nur selten vom jeweiligen Nutzer bewusst als eigenständig wahrgenommen werden.
Um spezifische Eigenschaften des Gebiets Echtzeitsysteme im Schulunterricht oder in der Ausbildung an Hochschulen den Lernenden sichtbar zu machen, existiert im Labor der Arbeitsgruppe Echtzeitsysteme der Universität Koblenz-Landau ein Versuchsaufbau mit dem Namen "Wippe", bei dem eine Kamera die Bewegung einer Kugel auf einer ebenen Fläche aufnehmen und vermessen kann. Durch die Neigung der Fläche in zwei Achsen ist die Wippe prinzipiell in der Lage, die Kugel zu bewegen und zum Halten zu bringen. Insbesondere soll verhindert werden, dass die Kugel von der Fläche fällt. Die vorliegende Arbeit beschäftigt sich mit der Analyse und Überarbeitung des Wippe-Systems. Außerdem wird ein Regelalgorithmus für eine automatische Steuerung des Systems realisiert.
Das Wippe-Experiment soll für didaktische Zwecke eingesetzt werden und ein offenes System darstellen, welches die Merkmale und Eigenschaften eines Echtzeitsystems exemplarisch verdeutlicht.
In Anbetracht der steigenden Scheidungszahlen und der damit immer höher werdenden Zahl betroffener Kinder, erscheint eine Trennung und Scheidung als eine der größten pädagogischen Herausforderungen der Gegenwart (vgl. Figdor, 2000, S. 89). Der Beginn der Scheidungsforschung war durch eine Defizitperspektive geprägt und bewertete die elterliche Scheidung, die sogenannten "broken homes" (vgl. Lexikon der Psychologie), als eine Abweichung von der "Normalfamilie", als generelles Entwicklungsrisiko für Kinder (vgl. Schwarz und Noack, 2002, S. 316). Eine Trennung und Scheidung zählt heute längst nicht mehr zu den familiären Ausnahmesituationen. Gegenwärtig werden in Deutschland circa 50 Prozent der Ehen geschieden. Doch nicht zwangsläufig führt diese Erfahrung zu Traumatisierungen und Entwicklungsbeeinträchtigungen der betroffenen Kinder, sondern kann Entwicklungschancen mit sich bringen.
In der Wissenschaft besteht heute Konsens darüber, dass eine elterliche Trennung und Scheidung zahlreiche negative Folgen für die Entwicklung der Kinder haben kann, aber nicht muss (vgl. Nave-Herz, 2009, S. 96). Unter welchen Voraussetzungen führt nun die Scheidung der Eltern nicht zu negativen Langzeitfolgen der Kinder? Welche Faktoren beeinflussen das Scheidungserleben? Wie bewältigen Kinder das Scheidungsgeschehen und was hilft ihnen im Umgang mit der Problemsituation? Die Motivation zur Bearbeitung dieser Forschungsfragen entstand zum einen durch zahlreiche persönliche Begegnungen mit betroffenen Scheidungskindern in der beruflichen Praxis.
Zum anderen gab die Tatsache, dass in Deutschland trotz steigender Scheidungszahlen Längsschnittstudien fehlen, die altershomogene Gruppen jüngerer Kinder über einen längeren Zeitraum nach der Trennung und Scheidung untersuchen, Anlass, die vorliegende Studie anzustreben. Die Altersgruppe der Fünf- bis Neunjährigen steht im Mittelpunkt der Arbeit, da es sich bei diesen Probanden um eine Gruppe handelt, zu der wenig detaillierte und konkrete Untersuchungen vorliegen.
Die Erzählung Der Sandmann ist seit nun mehr zwei Jahrhunderten Bestandteil der deutschen Literaturhistorie. Als eines der bekanntesten Werke E.T.A. Hoffmanns hat es im Laufe der Zeit darüber hinaus seinen Platz unter anderem in der Oper, im Hörspiel und auch im Film gefunden. An dieser Stelle setzt die hier vorgelegte Arbeit an und untersucht Hoffmanns Novelle sowie eine filmische Umsetzung in Hinblick auf ihre (formalen und inhaltlichen) Eigenheiten. Das Ziel dieser Arbeit ist dabei die Beantwortung der Frage, ob die behandelten Motive als Leitmotive bezeichnet werden können, welche formalen Eigenheiten sie möglicherweise unterstützen und wie sich die Charakteristik der Erzählung inklusive der Motive für einen Film (beziehungsweise für ein Drehbuch) adaptieren lässt.
Diese Bachelorarbeit behandelt die Zusammenführung der bereits vorliegenden Winkelrekonstruktions- und Simulationskomponente und erweitert diese mit Funktionen, um die Durchführung von systematischen Tests zu ermöglichen. Hierzu wird die Übergabe von Bildern aus der Simulationskomponente an die Winkelrekonstruktionskomponente ermöglicht. Des weiteren wird eine GUI zur Testlaufsteuerung und Parameterübergabe sowie eine Datenbankanbindung zur Speicherung der verwendeten Einstellungen und erzeugter Daten angebunden. Durch die Analyse der erzeugten Daten zeigt sich eine ausreichende durchschnittliche Präzision von 0.15° und eine maximale Abweichung der einzelnen Winkel von 0.6°. Der größte Gesamtfehler beläuft sich in den Testläufen auf 0.8°. Der Einfluss von fehlerhaften Parametern hat von variable zu Variable unterschiedliche Auswirkungen. So verstärkt ein Fehler in Höhe den Messfehler um ein vielfaches mehr, als ein Fehler in der Länge der Deichsel.
Grundwasser ist eine lebenswichtige Ressource und gleichzeitig ein thermisch stabiler Lebensraum mit einer außergewöhnlichen Fauna. Aufgrund der Klimageschichte der letzten ca. 1,8 Millionen Jahre in Mitteleuropa war die Ausgangshypothese, dass die meisten Grundwasserarten an Temperaturen unterhalb von 14 °C angepasst sind und sich Temperaturerhöhungen daher negativ auf die Grundwasserfauna auswirken.
Um die Folgen einer Klimaerwärmung in situ beurteilen zu können, wurden anthropogen erwärmte Grundwässer als Modelle herangezogen. In ersten Teil dieser Arbeit wurden die Crustaceagemeinschaften natürlich temperierter und anthropogen erwärmter Standorte untersucht. Dazu wurden insgesamt 70 Grundwassermessstellen im Oberrheingraben über ein Jahr (2011 bis 2012) sechsmal beprobt. Ergänzend zu diesem synökologischen Ansatz wurde in einem zweiten Teil die Temperaturpräferenz ausgewählter Arten überprüft. Für diese autökologische Betrachtung wurde ein deutschlandweiter Datensatz herangezogen.
Die ausgewählten Untersuchungsgebiete haben sich als geeignete Modelle für die prognostizierten Temperaturerhöhungen herausgestellt. Die Temperatur erwies sich als einer der wichtigsten Parameter für die Crustaceagemeinschaften. Erwärmungen beeinflussen die Zusammensetzung der Gemeinschaften und die Diversität. Dabei zeigte sich, dass es artspezifisch unterschiedliche Temperaturpräferenzen gibt. Einige vermutlich weniger streng stygobionte Arten scheinen höhere Temperaturen zu tolerieren. Der Großteil der stygobionten Grundwasserarten bevorzugt allerdings Temperaturen unterhalb von 14 °C, wobei wenige Arten als „extrem kalt¬steno-therm“ einzustufen sind. Diese Arten wurden an Standorten nachgewiesen, die aufgrund der hydrologischen Verhältnisse relativ kühl sind und der Fauna auch zukünftig als kalte Refugien Schutz bieten könnten. Einer dieser Standorte ist aufgrund seiner Artenvielalt als „Hot Spot“ einzustufen. Die Ergebnisse legen nahe, dass vor allem kaltstenotherme Arten durch eine Klimaerwärmung und anthropogene Wärmeeinträge gefährdet sind.
Die Untersuchung zeigt, dass Grundwasserlebensräume vor Temperaturerhöhungen zu bewahren sind. Lokale anthropogene Wärmeeinträge sollten keine dauerhafte und großflächige Grundwassererwärmung über 14 °C zur Folge haben. Thermische Ein-träge sollten überwacht und bewertet werden. Es wird empfohlen, die bestehenden rechtlichen Rahmenbedingungen den ökologischen Erfordernissen anzupassen.
Diese Arbeit stellt eine Erweiterung zum SpoGA-Server dar. Grundlage war die Idee, kleinen Gruppen einen gesicherten zeitbegenzten Zugang zu einem WLAN zu geben. Diese Idee wurde um die Möglichkeit der Planung ganzer Veranstaltungen erweitert. Nun ist es möglich, ganze Gruppen für Veranstaltungen an einem WLAN anzumelden. In Zusammenarbeit mit den beiden anderen Arbeiten zu diesem Thema wurde ein funktionsfähiger Prototyp entwickelt. SpoGA und E-IMS Server arbeiten beide eigenständig, zusammen jedoch bilden sie ein sehr funktionelles Werkzeug zur Organisation, Planung und Durchführung einer Veranstaltung mit Internetzugang für die Gäste.
Im Rahmen der mGeoWiki-Projekte wird ein neuer Ansatz geschaffen, mit ortsbezogenen Daten umzugehen. Bisher gibt es zum einen Geo-Portale, wie Google Maps, die es einem ermöglichen, Landkarten oder Luftbilder von jedem beliebigen Ort auf der Erde anzusehen. Dort können von jedem Benutzer zusätzliche Informationen oder auch Fotos hinterlegt und somit anderen Benutzern zugänglich gemacht werden. Die Nutzung dieses Dienstes ist kostenlos. Eine weitere Nutzung ortsbezogener Daten findet sich bei den Navigationssystemen. Hier wird die aktuelle Position mit Hilfe des GPS-Empfängers ermittelt und auf einer Karte angezeigt. Darüber hinaus werden thematische Informationen, wie Hotels oder Tankstellen, dargestellt. Diese zusätzlichen Informationen sind jedoch nicht unmittelbar durch den Benutzer veränderbar, sondern werden durch die Hersteller der Geräte vorgegeben. Eine Aktualisierung ist in der Regel kostenpflichtig. Das mGeoWiki kombiniert diese verschiedene Aspekte zu einem neuen Service. Der erste wichtige Aspekt ist die Mobilität. Der Benutzer kann sich frei in seiner Umwelt bewegen,seine Position wird mittels GPS festgestellt. Dann werden dem Benutzer Luftbilder und zusätzliche Informationen über den aktuellen Standort gezeigt. Der Benutzer ist also nicht mehr an seinen heimischen PC gebunden. Der zweite wichtige Aspekt ist die Möglichkeit der Benutzer, eigene, standortbezogene Daten zu hinterlegen, zu diskutieren und zu verändern. Am Beispiel des Landesamts für Vermessung und Geobasisinformation Rheinland-Pfalz (LVermGeo RLP) und dessen Plattform TIM-Online wird gezeigt, wie sich das mGeoWiki als generische Plattform im e-Government-Kontext einsetzen lässt.
Augmented Reality erfreut sich wachsender Beliebtheit. Zusatzinformationen in HMDs, Windschutzscheiben oder im Kamerabild des Smartphones oder Tablets sind hier die nennenswertesten Anwendungsfälle. Um eine Einblendung korrekt anzuzeigen, ist es notwendig die Position und Orientierung (Pose) der Kamera im Raum zu erfassen. Dies geschieht zurzeit hauptsächlich unter Zuhilfenahme von Markern. Dabei werden vordefinierte Marker im Raum positioniert und das System angelernt, wie es diese zu interpretieren hat. Der nächste Schritt ist es ohne Marker auszukommen. Hierbei wird von dem markerlosen Tracking gesprochen. Anstelle von künstlichen Markern werden natürliche Objekte der realen Umgebung als Referenzpunkte genutzt, um die Kamerapose zu bestimmen. Dadurch lässt sich dieses Verfahren flexibel und dynamisch einsetzen. Es wird zwar auf die Zuhilfenahme von Markern verzichtet, aber ein größeres Vorwissen über die Szenerie ist notwendig. Dies wird über technische Maßnahmen realisiert und/oder durch Interaktion des Benutzers. Beides ist nicht komfortabel oder effizient in der Verwendung eines solchen Systems und ist ein Grund dafür, warum markerloses 3D-Tracking nach wie vor ein Forschungsbereich ist.
An diesem Punkt setzt diese Arbeit an. Es wird ein Ansatz vorgeschlagen, der lediglich eine Menge von 2D-Feature und eine Menge von 3D-Feature eines Objekts benötigt, um die initiale Pose zu finden. Es sind keine weiteren technischen Hilfen notwendig und auch auf die Interaktion mit dem Benutzer wird verzichtet. Die 2D-Feature, wie auch die 3D-Feature, können auf beliebige Art gewonnen werden.
Die Idee ist es, diese zwei Mengen mit sechs Korrespondenzen zu verbinden. Anhand dieser Korrespondenzen kann eine Pose geschätzt werden. Mit der erhaltenen Pose kann jedes 3D-Feature auf Bildkoordinaten abgebildet werden, wodurch sich die geschätzte Pose bewerten lässt. Dabei wird der Abstand zwischen abgebildetem 3D-Feature und seinem zugehörigen 2D-Feature gemessen. Jede Korrespondenz wird so bewertet und die Ergebnisse aufsummiert. Je niedriger die Summe, desto besser ist die Pose. Es hat sich gezeigt, dass ein Wert von zehn Pixeln bereits ausreichend ist, um eine Pose als richtig zu bewerten.
Da es sehr viele Möglichkeiten gibt, diese sechs Korrespondenzen zwischen beiden Mengen aufzubauen, muss dieses Verfahren optimiert werden. Dies geschieht mit einem genetischen Algorithmus. In dem Testszenario arbeitet das fertige System sehr zuverlässig. Es wird eine Trefferquote von ca. 90%, bei einer Laufzeit von ungefähr zwölf Minuten, erreicht. Ohne Optimierung kann das Finden der initialen Pose schnell mehrere Jahre dauern.
Warum kann ich mir nicht vorstellen, meine Haare wachsen zu lassen, insbesondere meine Körperhaare? Diese Frage und das damit verbundene Unbehagen motivierten mich 2016 zur Entwicklung meines Dissertationsprojektes.
Die Suche nach einer Antwort führt zu einer Studie, die einen feministisch-phänomenologischen Erfahrungsbegriff zentral setzt. Bedeutsam für die Entwicklung eines solchen Begriffs sind die phänomenologischen Beiträge „Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie“ (Stoller 2005) von Silvia Stoller und „Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung“ (Alcoff 1997) von Linda Martín Alcoff. Darauf aufbauend verfolgt das Dissertationsprojekt zunächst das Anliegen, Erfahrungen sichtbar zu machen, indem sie veranschaulicht und zur Sprache gebracht werden. Auf diese Weise wird es möglich, Erfahrungen hinterfragen zu können, um anschließend Antworten entwickeln zu können. Demnach beruhen mein Unvermögen, Körperhaare wachsen zu lassen, sowie das damit einhergehende Unbehagen darauf, eine drohende Erfahrung der Fremdheit mir selbst gegenüber abwenden zu wollen. Zu einer solchen Fremderfahrung würde es kommen, wenn ich durch meine Körperhaare damit konfrontiert werde, dass ich mir fremd bin. Jedoch um sich selbst kennenzulernen sind Menschen nach phänomenologischem Verständnis (vgl. Meyer-Drawe 2001: 141-142) auf andere Menschen angewiesen, da sie sich selbst erst durch andere bewusst werden können. Doch stellt es angesichts des gelebten Ideals der Haarlosigkeit (vgl. Labre 2002: 120-122, Strmljan 2018: 406) eine Herausforderung dar, meine drohende Fremderfahrung, aufgrund der Konfrontation mit meinen Körperhaaren, im Kontakt mit anderen Menschen zu überwinden, sodass ich eine solche Fremderfahrung vermeide, indem ich meine Körperhaare entferne. Als Resultat verbleibt mein Unbehagen darüber, dem Ideal der Haarlosigkeit zu entsprechen.
Zu einer solchen Antwort gelange ich anhand einer Studie, die folgender Forschungsfrage folgt:
Wie erfahren sich Menschen beim Waxing in einem Kosmetikstudio unter den Bedingungen der binären Geschlechterordnung?
Dass die Erfahrungen in einem Kosmetikstudio erforscht werden, begründet sich damit, dass in einem solchen der Zugang zu Erfahrungen bei der Entfernung von Körperhaaren möglich wird. Körperhaare zu entfernen ist zwar ein alltäglicher Umgang mit Körpern, jedoch intim und persönlich, sodass ein Zugang schwierig wird. Eine Lösung stellt hierfür ein Kosmetikstudio dar. Als Praktikantin in dem Kosmetikstudio Beautystudio werden mir Erfahrungen beim Waxing – einer kosmetischen Technik der Haarentfernung – zugänglich.
Auf solche Weise Daten zu erheben folgt dem ethnographischen Vorgehen der teilnehmenden Beobachtung. Forscher*innen nehmen beobachtend vor Ort teil und erheben Daten, indem sie Notizen, Protokolle und schließlich Studien erstellen. Mittels eines solchen Forschungsstils können Forscher*innen Erfahrungen in einer Studie zentral setzen, da sie so Erfahrungen selbst machen können und Zugang zu den Erfahrungen anderer erhalten (vgl. Amann/ Hirschauer 1997: 29-30, Breidenstein et al. 2013: 86-87, 103, 177-178).
Im Zuge der Datenerhebung zeigt sich wiederum, dass im Umgang mit Körperhaaren die Bedingungen der binären Geschlechterordnung wirksam werden. Beispielsweise wird in vielen Situationen die dichotome Differenz zwischen Männern und Frauen betont, ohne dass es konkret für die kosmetische Anwendung notwendig zu sein scheint. So erklärt sich, dass für die Analyse und das Hinterfragen der zur Sprache gebrachten Erfahrungen ein geschlechtertheoretisches Konzept herangezogen wird, welches Erfahrungen hinsichtlich der Bedingungen der binären Geschlechterordnung befragen kann. Eine solche Betrachtung der Daten bietet Gesa Lindemanns Konzept „Der leiblich-affektiven Konstruktion des Geschlechts“ (1992).
Basierend auf dem feministisch-phänomenologischen Erfahrungsbegriff, dem ethnographischen Vorgehen und dem Geschlechterkonzept Lindemann zeigt sich, dass Menschen beim Waxing erfahren (können), mit anderen Menschen verbunden und sich selbst unverbunden zu sein. Dabei wird die Haut zum Kristallisationspunkt der Verbindung zu anderen Menschen (und auch Apparaten). Durch die Berührungen wird einerseits Verbundenheit gestaltet und eine gegenseitige Zuwendung erfahrbar, andererseits wird diese aber auch unterbrochen, wenn durch das Waxing Schmerz zugefügt wird oder Menschen durch Blicke entblößt werden. So wird die Haut zum Medium zwischen den Erfahrungen der Verbundenheit und Unverbundenheit.
(Hinweisen möchte ich an dieser Stelle, dass alle Namen und Orte anonymisiert sind. Demnach handelt es sich beim Beautystudio um den anonymisierten Namen des Kosmetikstudios, in welchem ich forschte. Auf diese Weise soll die Persönlichkeit der Kontaktpersonen im Feld gewahrt bleiben.)
Literaturhinweise:
Alcoff, Linda M. (1997): Phänomenologie, Poststrukturalismus und feministische Theorie. Zum Begriff der Erfahrung. In: Stoller, Silvia/ Vetter, Helmuth (Hg.): Phänomenologie und Geschlechterdifferenz. Wien: WUV-Universitäts-Verlag: 227-271.
Amann, Klaus/ Hirschauer, Stefan (1997): Die Befremdung der eigenen Kultur. Ein Programm. In: Hirschauer, Stefan/ Amann, Klaus (Hg.): Die Befremdung der eigenen Kultur: Zur ethnographischen Herausforderung soziologischer Empirie. Frankfurt am Main: Suhrkamp Verlag: 7-52.
Breidenstein, Georg/ Hirschauer, Stefan/ Kalthoff, Stefan/ Nieswand, Boris (2013): Ethnografie. Die Praxis der Feldforschung. Konstanz & München: UVK Verlagsgesellschaft
Labre Peixoto, Magdala (2002): The Brazilian Wax: New Hairlessness Norm for Women? In: Journal of Communication Inquiry: 26 (2): 113-132.
Lindemann, Gesa (1992): Die leiblich-affektive Konstruktion des Geschlechts. Für eine Mikrosoziologie des Geschlechts unter der Haut. In: Zeitschrift für Soziologie: 21 (5): 330-346.
Meyer-Drawe, Käte (2001): Leiblichkeit und Sozialität. München: Wilhelm Fink Verlag.
Stoller, Silvia (2005): Zur poststrukturalistischen Kritik an der Erfahrung im Kontext der feministischen Philosophie. In: Stoller, Silvia/ Vasterling, Veronica/ Fisher, Linda (Hg.): Feministische Phänomenologie und Hermeneutik. Würzburg: Königshausen & Neumann GmbH: 139-170.
Strmljan, Alina (2018): Haare zum Schämen? Weibliche Körperbehaarung und ihre Entfernung – Normen, Tabus und Trivialisierungen. In: Breuss, Susanne (Hg.): Mit Haut und Haar. Frisieren, Rasieren, Verschönern. Wien: Metroverlag: 404-410.
Sustainable Leadership
(2023)
Thematik:
Die vorliegende Forschungsarbeit befasst sich mit dem Thema Sustainable Leadership. Dieses Forschungsgebiet der nachhaltigkeitsorientierten Forschung hat in den letzten Jah- ren durch die immer stärker werden Auswirkungen des Klimawandels erheblich an Bedeutung gewonnen. In diesem Zusammenhang rücken Unternehmen immer mehr in den Fokus. Diese müssen nun Wege und Methoden finden, die ihre Arbeitsweise und Prozesse nachhaltiger und umweltschonender gestalten. Die in der vorliegenden Arbeit zu untersuchende Forschungsfrage lautet: „Wie gestaltet sich ein Sustainable Leadership Ansatz in Unternehmen?“ Aufbauend auf dieser übergeordneten Forschungsfrage werden in untergeordneten Forschungsfrage insbesondere Merkmale, Kompetenzen und Verhaltensweisen eines nachhaltigkeitsorientierten Führungsstils betrachtet.
Methodik:
Die Forschungsmethodik der vorliegenden Arbeit ist eine qualitative Inhaltsanalyse nach Mayring (2019). Mittels semistrukturierter Interviews wurden Führungspersönlichkeiten aus Großunternehmen befragt. Auf Grundlage dieses Datenmaterials wurden induktive Kategorien abgeleitet und qualitativ analysiert und interpretiert.
Ergebnisse:
Die Ergebnisse der empirischen Forschung wurden in insgesamt fünf Oberkategorien mit jeweils zwei Unterkategorien zusammengefasst. Es wurden die theoretischen Erkennt- nisse des Forschungsbereichs mit den praktischen Erkenntnissen aus den durchgeführten Interviews ergänzt und interpretiert. Des Weiteren wurden die Ergebnisse aus Sicht einer holistischen Unternehmensperspektive in einem konzeptionellen Ansatz modelliert. Ab- schließend wurden aus den Praxiserfahrungen einige Handlungsempfehlungen formuliert und die Merkmale, Kompetenzen, Verhaltensweisen und Auswirkungen eines nachhal- tigkeitsorientierten Führungsstils diskutiert.
Aktuell gibt es in den Geisteswissenschaften eine Vielzahl von digitalen Werkzeugen, wie beispielsweise Annotations-, Visualisierungs-oder Analyseanwendungen, welche Forscherinnen bei ihrer Arbeitunterstützen und ihnen neue Möglichkeiten zur Bearbeitung unterschiedlicher Forschungsfragen bieten. Allerdings bleibt die Nutzung dieser Werkzeuge stark hinter den Erwartungen zurück. In der vorliegenden Arbeit werden im Rahmen einer Design-Science-Theorie zwölf Verbesserungsmaßnahmen entwickelt, um der fehlenden Nutzungsakzeptanz entgegenzuwirken. Durch die Implementierungen der entwickelten Design-Science-Theorie, können SoftwareentwicklerInnen die Akzeptanz ihrer digitalen Werkzeuge, im geisteswissenschaftlichen Kontext, steigern.
In dieser Arbeit wird die Konzeption, Implementierung und Evaluierung einer Augmented Reality-App beschrieben. Diese wurde mit dem Ziel entwickelt, Objekte im realen Raum mit virtuellen Hilfsmitteln auszumessen, sodass diese Anwendung einen Holzgliedermaßstab ersetzen kann. Hinzu kommt die praktische Speicherung der Messwerte. Angefertigt wurde die App mit der Unity Engine und programmiert in C#.
Schwerpunkte dieser Arbeit sind die Benutzerfreundlichkeit der App, sowie die Eignung von AR Foundation für das Ausmessungstool.
Die Anwendung wird auf die genannten Kriterien im Rahmen eines Nutzertests in einer abschließenden Evaluation bewertet.
Als Ergebnis ließ sich festhalten, dass sich die AR-App noch im Prototyp-Stadium befindet, aber im Allgemeinen schon als benutzerfreundlich gilt. Kleinere Änderungen sollen und müssen noch vorgenommen werden, um auch den Umgang mit dem AR-Tool zu vereinfachen.
Auswirkungen des Zweiten Weltkrieges auf Psychopathologie und Therapie bei psychischen Erkrankungen
(2009)
In der vorliegenden Arbeit wurden die Auswirkungen des Zweiten Weltkrieges auf die Psychopathologien und Therapien psychischer Erkrankungen am Beispiel der Heil- und Pflegeanstalt Klingenmünster aufgezeigt. Als Quellenmaterial dienten 186 Patientenakten. Die Auswertung der Krankenberichte erfolgte zum einen nach soziodemographischen Merkmalen (wie z.B. Alter, Geschlecht, Wohnort, Beruf usw.), zum anderen nach Diagnose und Therapie. Der Schwerpunkt wurde auf die Auswertung der Diagnosen und die damit verbundenen Psychopathologien gelegt. Dafür wurden die Akten vor dem Zweiten Weltkrieg (1932) und nach dem Zweiten Weltkrieg (1948) miteinander verglichen. Dabei erhob sich auch die Frage, ob die Behandlung, die den Patienten in Klingenmünster zuteil wurde, dem Stand der zeitgenössischen Wissenschaft entsprach. Bei den Diagnosen gab es Unterschiede dergestalt, dass 1932 die Diagnose Progressive Paralyse und Schizophrenie signifikant häufiger gestellt wurde als 1948. Nach dem Zweiten Weltkrieg wurde dafür der angeborene Schwachsinnszustand und die Psychische Störung des höheren Lebensalters signifikant häufiger diagnostiziert. Die Progressive Paralyse trat 1948 wahrscheinlich deshalb seltener auf, weil in den 30er Jahren mit der wirksamen Malariakur und Salvarsantherapie eine recht hohe Remissionsrate erzielt wurde und sie deshalb Ende der 40er Jahre allgemein seltener auftrat. 1948 wurden Patienten mit Schizophrenie seltener aufgenommen als 1932. Es ist denkbar, dass der Anteil der Schizophrenen aufgrund der bereits 1933 laufenden rassenhygienischen Maßnahmen sowie der frühen Deportation und Tötung dieser Patienten abgesunken sein könnte. Patienten mit der Diagnose einer Störung des höheren Lebensalters fielen der Euthanasie wahrscheinlich nicht zum Opfer, da sie ihr Leben lang dem Gemeinwesen genutzt hatten und nicht erbkrank waren. Die Ermordung von "sozial Wertvollen", jetzt jedoch alt gewordenen Menschen wäre auf großen öffentlichen Widerstand gestoßen. Für diese Menschen gab es keinen anderen Ort mehr, denn die Pflege- oder Altenheime waren ausgebombt. Die Versorgung der alten und hinfälligen Menschen wurde im ganzen Land immer schwieriger. Diese Entwicklung der letzten Kriegsjahre und Nachkriegsjahre in Deutschland könnte eine Erklärung dafür sein, dass diese Patienten die größte Patientengruppe 1948 in Klingenmünster bildeten. Das galt sicherlich nicht für Patienten mit angeborenem Schwachsinn, die als erbkrank galten und somit den rassenhygienischen Maßnahmen zum Opfer fielen. In den 40-er Jahren war auch die Öffentlichkeit so weitgehend über die mit einem Klinikaufenthalt verbundene Gefahr der Tötung informiert, dass weniger Patienten einer stationären Behandlung zugeführt worden sein dürften. Diese Patienten wurden während des Krieges wahrscheinlich von ihren Angehörigen nicht in eine Anstalt gebracht. Ziel der vorliegenden Arbeit war es auch zu klären, ob der Zweite Weltkrieg Auswirkungen auf psychiatrische Krankheitsbilder im Sinne einer Kriegsneurose hatte. Es zeigte sich, dass der Zweite Weltkrieg keine Auswirkungen auf die Prävalenz des Krankheitsbildes Kriegsneurose in der Heil- und Pflegeanstalt Klingenmünster hatte. Neben den Krankheitsbildern und den Psychopathologien wurden auch die Therapieformen der beiden Jahrgänge miteinander verglichen. Aber auch hier gab es keine kriegsbedingten Unterschiede. Betrachtet man die Therapieformen zur Zeit der Weimarer Republik und der Nachkriegszeit vor dem Hintergrund der gängigen Therapien zu dieser Zeit, so war Klingenmünster auf dem aktuellen wissenschaftlichen Stand. Die am häufigsten eingesetzten Behandlungsmethoden waren zum einen die Arbeitstherapie, zum anderen die medikamentöse Therapie. Der Rückgang der Arbeitstherapie von 1932 auf 1948 könnte mit dem Personalmangel in den Nachkriegsjahren in den Kliniken zu tun haben, wonach unzureichend qualifiziertes Pflegepersonal vorhanden war, die die Kranken bei der Arbeit anleiten und beaufsichtigen konnten. Die medikamentöse Therapie war die führende Therapieform, die in der Heil- und Pflegeanstalt Klingenmünster eingesetzt wurde. Zwischen den beiden Jahrgängen gab es hinsichtlich der Häufigkeit keine Unterschiede. Doch die Art der Therapie hatte sich im Verlauf der Jahre durch die Einführung der Insulinkomatherapie 1933, der Cardiazolkrampftherapie 1934 und der Elektrokrampftherapie 1938 verändert.
Die Medizinische Visualisierung komplexer Gefäßbäume hat das Potential den klinischen Alltag in der Gefäßchirurgie zu erleichtern.
Dazu sind exakte, hochaufgelöste Darstellungen und echtzeitfähige Berechnungsmethoden notwendig. Bekannte Ansätze aus den Bereichen der direkten (z.B. Raycasting) und indirekten
(z.B. Marching Cubes) Volumenvisualisierung sind nicht in der Lage alle Anforderungen zufriedenstellend zu erfüllen. Verbesserte
Ergebnisse können mit hybriden Methoden erzielt werden, die unterschiedliche Visualisierungsverfahren kombinieren.
Im Rahmen dieser Arbeit wurde ein hybrides Renderingsystem zur Darstellung von Blutgefäßen entwickelt, das die Bildqualität durch Integration einer Marching Cubes Oberfläche in ein Raycasting–System optimiert, dabei Detailstrukturen erhält und ausreichende Performanz zur Interaktion bietet. Die Ergebnissezeigen die verbesserte Plastizität und Genauigkeit der Darstellung.Anhand von Experten– und Laienbefragungen konnte der Nutzen des Systems vor allem für die Patientenaufklärung nachgewiesen werden. Die Erschließung zusätzlicher Anwendungsgebiete ist durch die Weiterentwicklung des Renderers möglich.
Konzept und Umsetzung eines E-Learning Nähkurses mit Integration von 3D-Modellen und Animationen
(2007)
Antonio Lotti und seine liturgische Kirchenmusik – Vorstudien zu Biographie und Überlieferung
(2023)
Antonio Lotti (1667-1740) gehört zu den venezianischen Komponisten, die in der älteren wie der neueren Fachliteratur ein hohes Ansehen genießen, obwohl seine Werke bis heute nur wenig bekannt sind. Eine unklare Überlieferungslage, aber auch sachfremde ästhetische Postulate verzögerten jedoch die Auseinandersetzung mit Lottis Kompositionen. Erst in neuerer Zeit gab es ein verstärktes Interesse sowohl an seinen Opern und vokaler Kammermusik als auch an seiner Kirchenmusik.
In der vorliegenden Studie wird zunächst Lottis Biographie unter Einbeziehung neuer Quellenfunde auf dem aktuellen Stand des Wissens zusammenfassend dargestellt. Der zweite Teil bietet erstmals eine Identifikation von Lottis Buchstaben- und Notenschrift nach streng philologischen Kriterien. Angesichts des nicht mehr erhaltenen Nachlasses ist dieser Teil von besonderer Bedeutung, bietet er doch die unverzichtbare Basis zur weiteren Erforschung von Lottis Kirchenmusik, ihrer Überlieferung und Faktur.
In der Betriebswirtschaft wird das Steuern von Preis und Kapazität einer be- stimmten Ware oder Dienstleistung als Yield oder Revenue Management bezeich- net. Im wesentlichen geht es darum, die vorhandenen knappen Gütter ertrags- bzw. erlösmaximal zu vermarkten. Dies wird zum einen durch Erstellen von Pro- gnosen über das zukünftige Kundenverhalten, zum anderen durch den Einsatz verschiedener Ertragsmaximierungstechniken, wie z.B. Preisdifferenzierung oder Überbuchung, erreicht. So lassen sich die Zahlungsbereitschaften verschiedener Nachfragegruppen optimal abschöpfen, der Auslastungsgrad erhöhen und somit der Ertrag optimieren. Das Yield-Management entstand nach der Deregulierung des amerikanischen Luft- verkehrsmarktes im Jahre 1978, als zahlreiche Fluggesellschaften den etablierten Airlines Konkurenz machten. Sie zielten mit ihren günstigen Preisen vor allem auf Freizeitreisende und konnten so erhebliche Marktanteile gewinnen. Im Zuge des Preiskampfes entwickelten Fluggesellschaften verschiedene Techniken zur Steuerung der Preise und Kapazitäten um ihre Erlöse zu maximieren. So konnte z.B. American Airlines trotzt schlechterer Kostenstruktur viele Wettbewerber vom Markt drängen, als sie 1985 zum ersten mal das neue Konzept vollständig eingesetzt haben. Vergl. (vergl. uRK05, Kap. A). Im folgenden haben andere Branchen, wie Autovermieter und Hoteliers, die Kon- zepte des Yield-Managements adoptiert und erfolgreich eingesetzt. Die Mechanis- men der Nachfrageprognosen und Optimierung der Produktsegmente, Kontingente und Preise sind stets die gleichen. Es ädern sich lediglich die branchenspezifischen Parameter sowie Optimierungsziele. Im Rahmen dieser Diplomarbeit werden die möglichen Einsatzgebiete des Yield- Managements untersucht. Es wird der Versuch unternommen ein allgemeingültiges Model zur Steuerung von Preis und Kapazität von Dienstleistungen oder Pro- dukten zu entwickeln. Das Model wird dann am speziellen Beispiel der Touris- musbranche, insbesondere der Produkte eines Reiseveranstalters, in einem Yield- Management-Modul des Reiseveranstaltersystems TourPaX implementiert.
Point Rendering
(2021)
In dieser Arbeit werden Verfahren zum Rendern von Punktdaten vorgestellt und miteinander verglichen. Die Verfahren lassen sich in zwei Kategorien unterteilen. Zum einen werden visuelle Verfahren behandelt, welche sich mit der reinen Darstellung von Punktprimitiven befassen. Hauptproblem ist dabei die Darstellung von Oberflächen, da Punktdaten im Gegensatz zu traditionellen Dreiecksnetzen keine Nachbarschaftsinformationen beinhalten. Zum anderen werden beschleunigende Datenstrukturen dargelegt, welche die echtzeitfähige Darstellung von großen Punktwolken ermöglichen. Punktwolken weisen häufig eine hohe Datenmenge auf, da diese meist durch 3D-Scanningverfahren wie z.B. Laserscanning und Photogrammetrie generiert werden.
Diese Arbeit beschäftigt sich mit verschiedenen Ansätzen zur Beschleunigung von Raytracing Berechnungen auf dem Grafikprozessor (GPU). Dazu wird ein Voxelgrid verwendet, welches durch die Linespace-Datenstruktur erweitert wird. Der Linespace besteht aus richtungsbasierten Schäften (Shafts) und speichert die in ihm liegenden Objekte in einer Kandidatenliste. Es werden unterschiedliche Methoden zur Sortierung und Traversierung des Linespace vorgestellt und evaluiert. Die Methoden können keinen Anstieg der Bildfrequenz erreichen, ohne gleichzeitig in einer Verringerung der Bildqualität zu resultieren.
Im Rahmen dieser Bachelor-Arbeit wurde ein IT-gestützter Prototyp (als Excel-Applikation) entwickelt, mit dem komplexe Entscheidungsfindungen auf Grundlage der Nutzwertanalyse durchgeführt werden können. Er eignet sich zur Bewertung aller Arten von betrieblichen Anwendungssystemen, darüber hinaus ist er auch für andere unternehmerische Entscheidungen verwendbar, da die zugrunde liegende Nutzwertanalyse universell einsetzbar ist. Der Prototyp berücksichtigt und identifiziert 13 Merkmalsgruppen mit insgesamt 100 Merkmalen für Groupware. Ein zusätzlich erstelltes 20-minütiges Tutorial-Video erläutert Schritt für Schritt dessen Nutzung und Funktionalität. Sämtliche Gruppen und Merkmale wurden von einem befragten externen Experten gewichtet. Mit Hilfe des erarbeiteten umfangreichen Kataloges lassen sich künftig Groupware-Produkte effizienter und aussagekräftiger vergleichen. Dieses Tool ist eine Weiterentwicklung im Bereich der Nutzwertanalyse und hilft dabei, intuitiv und inhaltlich-vergleichend Merkmale/Gruppen zu erstellen und eine Nutzwertanalyse durchzuführen. Damit wird ein Benchmark mit vielfältigen Filteroptionen erstellt, der eine tabellarische als auch graphische Auswertung ermöglicht.
Das durchgeführte Experten-Interview und die Auswertung der Fachliteratur haben aber auch deutlich gemacht, dass die Nutzwertanalyse nicht als einziges Argument bzw. Instrument zur Entscheidungsfindung beitragen darf. Zangemeister, Systemtechniker und Fachmann im Bereich der mehrdimensionalen Bewertung und Entscheidungsfindung, merkt hierzu an: "Nutzwertmodelle dürfen nicht als Ersatz, sondern zunächst als eine wichtige Ergänzung der übrigen Modelle betrachtet werden, die dem systematischen Abbau der Entscheidungsproblematik bei der Auswahl von Projektalternativen dienen können" [Zangemeister 1976, S.7]. Alles in allem bietet die Nutzwertanalyse aufgrund der strukturierten Zergliederung des Bewertungsprozesses in Teilaspekte eine qualitativ bessere Übersicht über ein zu bewertendes Problem und stellt eine aussagestarke Zusammenstellung und Auswertung mit detaillierten Informationen über die Bewertungsobjekte auf.
Algorithmische Komposition
(2018)
Algorithmische Komposition ist ein interdisziplinärer Forschungsbereich, der die beiden Bereiche Musik und Wissenschaft miteinander verknüpft. Der Computer wird in den Mittelpunkt des Kompositionsprozesses gestellt und komponiert mithilfe eines Algorithmus Musik. In dieser Arbeit wird die Algorithmische Komposition unter Verwendung der biologisch inspirierten Algorithmen Lindenmayer-System und Zellulärer Automat untersucht. Dabei werden ausgewählte Verfahren vorgestellt, implementiert und evaluiert, die die erzeugten Daten der Algorithmen in ein sinnvolles musikalisches Ergebnis transformieren.
Die vorliegende Arbeit beschreibt die Entwicklung eines OpenGL-basierten Tools zur Visualisierung von Hohlräumen in Proteinen, welche während eines statischen Dockings beobachtet werden können. Ziel ist es, anhand von Informationen über Abstände zwischen Proteinen und Liganden, Schluss- folgerungen über Interaktionen zu ziehen, um daraus Ansätze für die Entwicklung künstlicher Liganden zu gewinnen. Zunächst wird auf chemische Grundlagen eingegangen, die das Thema motivieren und für das Verständnis der Thematik und der genutzten Algorithmen wichtig sind. Des Weiteren wird bestehende Software vorgestellt, die ähnliche Sachverhalte löst. Anschließend werden die Voraussetzungen zur Entwicklung des Programmes genannt, woraufhin dieses detailliert beschrieben wird. Zum Abschluss wird das Tool in Hinblick auf Performance und Nutzen evaluiert und ein zusammenfassendes Fazit getroffen, in dem sich das Programm als gute Hilfe für bestehende Forschungen und gute Basis für weitere, tiefergehende Forschungsprojekte erweist.
Massenprozessmanagement
(2015)
Vorliegende Dissertation beantwortet die Forschungsfrage, welche grundlegend geeigneten Vorgehensweisen und notwendigen Informationstechnologien für das Management von hohen Anzahlen an Geschäftsprozessen (Mass Process Management, MBPM) in Dienstleistungsun-ternehmen zu berücksichtigen sind. Es konnte gezeigt werden, dass zur Bearbeitung von Massenprozessen eine spezielle, Methoden aus der Fertigungsindustrie verwendende Vorgehensweise notwendig ist. Das Forschungsziel, die Entwicklung einer MBPM-Vorgehensweise für Dienstleistungsunternehmen, wurde unter Anwendung des Forschungsansatzes Design Science Research erreicht und wird in der Dissertation in aufeinander aufbauenden Schritten erläutert. Zur Entwicklung der MBPM-Vorgehensweise wurde eine Langzeit-Tiefenfallstudie bei einem Prozess-Outsourcing-Dienstleister erstellt, um aus dessen Vorgehen Erkenntnisse zu gewinnen. Outsourcing-Unternehmen müssen ihre Dienstleistungen (Produkte) besonders effizient und effektiv erstellen, da sie sonst ihre Produkte nicht zu attraktiven Konditionen anbieten können. Es hat sich gezeigt, dass die fabrikorientierte Vorgehensweise des Outsourcing-Dienstleisters über den Betrachtungszeitraum von zehn Jahren dazu geeignet war, hohe Prozessmengen in höchster Qualität, zu stets sinkenden Preisen mit immer weniger Personen zu bearbeiten.
Der vermutete Forschungsbedarf in Bezug auf MBPM konnte auf Basis einer intensiven Literaturrecherche über das Zeitschriftenrating VHB-JOURQUAL und weitere Literaturquellen bestätigt werden. Da Vorgehensweisen für die Einführung von BPM in einer Vielzahl gefunden wurden, wurde eine Auswahl an BPM-Vorgehensweisen analysiert, um weitere Erkenntnisse für die Erstellung der MBPM-Vorgehensweise zu gewinnen. Durch die Analyse und den Vergleich der verschiedenen BPM-Vorgehensweisen aber auch durch den Vergleich mit dem Vorgehen des Prozess-Outsourcing-Dienstleisters stellte sich heraus, dass sich BPM und MBPM in zahlreichen Aspekten voneinander unterscheiden. MBPM hat einen stark operativen Fokus und benötigt intensive Unterstützung durch Informationstechnologie. Der operative Fokus zeigt sich vor allem in der für das MBPM notwendigen operativen Steuerung von Prozessen und Menschen und den damit einhergehenden hohen Anforderungen an Prozesstransparenz. Mit detailliertem Prozessmonitoring und feingranularen Prozessmessungen sowie zeitnahem Reporting wird diese Prozesstransparenz erreicht. Informationstechnologie wird benötigt, um bspw. Prozessmonitoring zeitnah durchzuführen aber auch um internen wie externen Anspruchstellern zu jeder Zeit den gewünschten Überblick zur aktuellen Auslastung aber auch zur Abrechnung der Dienstleistungen gewähren zu können.
Es konnte entgegen des Vorgehens des Prozess-Outsourcing-Dienstleisters gezeigt werden, dass Change Management die Einführung, den dauerhaften Betrieb und den mit MBPM verbundenen stetigen Wandel in positiver Weise beeinflussen kann.
Die vorliegende Arbeit beschäftigt sich mit der Verteilung großer virtueller Rechnernetze auf mehrere physische Hosts unter Verwendung der beiden Virtualisierungstools VNUML und EDIV. Dabei ist VNUML für die eigentliche Simulation des Netzwerks zuständig, während EDIV in erster Linie für die entsprechende Verteilung sorgt. Nach einer kurzen Erklärung grundlegender Begriffe und Konzepte aus dem Gebiet der Netzwerksimulation wird zunächst ausführlich auf die beiden erwähnten Virtualisierungstools eingegangen. Dies beginnt jeweils mit einer detaillierten Beschreibung hinsichtlich der korrekten Installation und Konfiguration, gefolgt von einer Demonstration der wichtigsten Funktionalitäten, wie das Starten oder Beenden einer Simulation. Auch auf das Erstellen eines geeigneten Netzwerkszenarios und auf die von EDIV bereitgestellten Skripte zur Überwachung dieser Szenarien wird in diesem Zusammenhang näher eingegangen. Um die vorgestellten Möglichkeiten der beiden Tools auch in der Praxis anwenden zu können, wird zum Schluss ein eigenes Netzwerkszenario entworfen und auf mehrere Rechner verteilt, sodass die verschiedenen Funktionen von EDIV vorgeführt und beschrieben werden können.
Die Vorwärtsfahrt mit einem einachsigen Anhänger stellt für die meisten Fahrer keine große Schwierigkeit dar. Das Zugfahrzeug gibt die Richtung vor und der Anhänger wird mitgezogen. Jedoch ist das Rückwärtsfahren mit Anhänger für den ungeübten Fahrer oft sehr kompliziert, da die Lenkmanöver für eine bestimmte Richtungsänderung nicht intuitiv sind und ein "Umdenken" erfordern. Will man beispielsweise den Anhänger um eine Linkskurve fahren, so muss das Zugfahrzeug zunächst nach rechts gelenkt werden, damit der Anhänger linksherum geschoben wird. Schnell passieren Fehler und ein Unfall mit Sachschaden kann eine mögliche Folge sein. Besonders Fahrer, die nur gelegentlich mit einem Anhänger unterwegs sind, haben bei der Rückwärtsfahrt mit Anhänger Probleme.
Die vorliegende Arbeit behandelt die Entwicklung einer Simulationsumgebung zur Darstellung von Objekten im Weltraum und ihrer gravitativen Wechselwirkung zu einander.
Vorab werden in Kapitel 1 Motivation und Zielsetzung der Arbeit erläutert, des Weiteren werden die verwendeten Werkzeuge benannt. Die nötigen astronomischen Grundlagen werden in Form von Begriffserklärungen und der Vorstellung der dieser Arbeit zugrunde liegenden physikalischen Gesetze in Kapitel 2 beschrieben.
Kapitel 3 befasst sich mit dem Aufbau der einzelnen Klassen. Hier wird insbesondere auf die Berechnung der Positionen und Geschwindigkeiten der simulierten Himmelskörper und den Aufbau und die Funktionsweise der verwendeten Elemente der Graphikengine Ogre3D eingegangen.
Im Kapitel 4 wird der Einsatz des Werkzeugs 3ds Max zur Erstellung der Geometrieobjekte und Materialien erläutert.
Abschließend wird in Kapitel 5 ein Fazit gezogen und mögliche zukünftige Erweiterungen erwogen.
Eltern spielen eine entscheidende Rolle bei der Inanspruchnahme von kultureller Bildung durch Kinder und Jugendliche. Häufig sind sie in die Organisation und Finanzierung der kulturellen Bildungsangebote involviert. Insbesondere in ländlichen Räumen kommt die Besonderheit hinzu, dass Eltern aufgrund größerer räumlicher Distanzen und einer unzureichenden Ausstattung des ÖPNV Begleitfahrten mit dem eigenen PKW durchführen müssen. Häufig werden ländliche Räume anhand objektivierbarer Daten als strukturschwach oder kulturarm beschrieben. Darüber, ob oder inwiefern das von ländlich lebenden Eltern ebenso gesehen wird, ist jedoch wenig bekannt.
Die vorliegende Dissertationsschrift gibt einen Einblick in die elterlichen Perspektiven auf kulturelle Bildung in ländlichen Räumen. Sie basiert auf offenen, qualitativen Leitfadeninterviews mit Eltern aus vier ländlichen Regionen Deutschlands, die diskursanalytisch und unter Zuhilfenahme von Kodierungspraktiken aus dem Kontext der Grounded Theory ausgewertet wurden.
In den Interviews zeigt sich eine Vielzahl an elterlichen Verständnissen und Positionierungsweisen zur kulturellen Bildung in ländlichen Regionen. Es stellt sich heraus, dass der elterliche Diskurs auf einem komplexen Zusammenspiel sozioökonomischer bzw. -kultureller Bedingungen, raumstruktureller Gegebenheiten und individueller Präferenzen hinsichtlich kultureller Bildung auf dem Land basiert.
Verschiedene Formen der Nierenersatztherapie " Hämodialyse, Peritonealdialyse und Transplantation " ermöglichen es terminal niereninsuffizienten Menschen, Jahre bis Jahrzehnte weiterzuleben, obwohl ein lebenswichtiges Organ ausgefallen ist. Gleichzeitig hat damit die moderne Medizin ein Krankheitsbild geschaffen, das es ohne sie gar nicht gäbe, und das geprägt ist von zahlreichen Folge- und Begleiterkrankungen sowie spezifischen physischen und psychischen Belastungen für die Betroffenen.
Untersuchungsgegenstand der Arbeit ist die Situation chronisch nierenkranker Menschen, ihre Einschränkungen und Belastungen, typische Merkmale ihrer Krankheitsverarbeitung und Möglichkeiten psychosozialer Interventionen für diese Personengruppe, ihre Angehörigen und das medizinische Personal. In einer multizentrischen Untersuchung wurden in insgesamt vier Modellprojekten des Bundesverbandes Niere e.V. 573 Patientinnen und Patienten an zwei Messzeitpunkten per Fragebogen (u.a. mit den Trierer Skalen zur Krankheitsbewältigung TSK) befragt, wobei 180 davon sich an beiden Befragungen beteiligten, sowie 6 Experten-Interviews mit dem medizinischen Personal durchgeführt. Zusätzlich wurden die Protokolle der Teams und Supervisionen mit den psychosozialen Fachkräften sowie deren Statistik und Dokumentationen ausgewertet.
Die höchsten Einschränkungen und Belastungen in der Stichprobe zeigten sich bei der körperlichen Leistungsfähigkeit, bei Sport, Reisen, der Fähigkeit, berufstätig zu sein sowie seelischer Anspannung und Sorgen im Zusammenhang mit der chronischen Nierenerkrankung. Patientinnen und Patienten, die mit der Hämodialyse behandelt werden, fühlen sich im Mittel in allen abgefragten Bereichen stärker eingeschränkt als die Transplantierten, vor allem in den Bereichen Trinken, Essen, zeitliche Gestaltung des Alltags und Reisen. Sie fühlen sich außerdem weniger vital, und zeigen stärkere Beeinträchtigungen in der sozialen Funktionsfähigkeit und ein allgemein schlechteres psychisches Befinden. Die Einschränkungen und Belastungen der PD-Patientinnen und "patienten liegen zwischen denen der Transplantierten und der Hämodialysegruppe. In den Bereichen Ängste, Abhängigkeit, Sexualleben sowie Anspannung und Sorgen erleben Transplantierte fast genauso hohe Belastungen wie Patientinnen und Patienten, die mit Hämodialyse behandelt werden an.
Alter, Multimorbidität und Hämodialyse als Behandlungsverfahren wirken sich verstärkend auf die Belastungen und Einschränkungen chronisch Nierenkranker aus, eher positiv wirken sich höhere Bildung, Berufstätigkeit und steigende Behandlungsdauer aus.
Eine besonders schwer belastete Personengruppe dürften also ältere, multimorbide Patientinnen und Patienten sein, die mit Hämodialyse behandelt werden und nicht (mehr) berufstätig sind. Als Einflussfaktoren auf die Krankheitsverarbeitung konnten folgende identifiziert werden: Geschlecht, Alter, Familienstand, Erwerbstätigkeit, weitere Erkrankungen und Behandlungsverfahren. So wenden beispielsweise Transplantierte die Strategie "Suche nach sozialer Einbindung" etwas häufiger an als Patientinnen und Patienten, die mit einem Dialyseverfahren behandelt werden. Zur Untersuchung der Effektivität der einzelnen Bewältigungsdimensionen wurden diese in Beziehung zu den affektiv-motivationalen Variablen gesetzt, die im Fragebogen ebenfalls erhoben wurden. Dabei zeigte sich, dass die Bewältigungsdimension "Rumination" (als grüblerisches, in die Vergangenheit gerichtetes Verhalten) die stärksten negativen Auswirkungen auf die Befindlichkeit und die Einstellung der Befragten hat. Die Art des Behandlungsverfahrens, die Krankheitsverarbeitung und das Erleben des letzten halben Jahres standen im Zusammenhang mit der Inanspruchnahme der Psychosozialen Begleitung. So wurde die Psychosoziale Fachkraft signifikant häufiger von Hämodialysepatientinnen und "patienten konsultiert als von den anderen Behandlungsgruppen. Ebenso sah es bei Patientinnen und Patienten mit durchschnittlich höheren Werten auf den TSK-Skalen "Rumination" und "Suche nach Information und Erfahrungsaustausch" aus. In der Auswertung der Experteninterviews wurde deutlich, dass die befragten Ärztinnen, Ärzte und Pflegekräfte die Belastungen und Complianceprobleme der Patientinnen und Patienten in hohem Maße wahrnehmen und hier auch einen hohen eigenen Handlungsbedarf oder sogar Handlungsdruck für sich sehen, helfend oder regulierend einzugreifen. Hier konnte die Psychosoziale Begleitung Entlastung bringen. Die Auswirkungen der Psychosozialen Begleitung auf die Patientinnen und Patienten wurden durchweg positiv beschrieben.
Absicht: Die vorliegende Forschungsarbeit soll einerseits ein Grundverständnis zu Herausforderungen von jungen Unternehmen, die sich im Wachstum befinden, herstellen, indem bisherige Erkenntnisse zu diesem Thema diskutiert werden. Andererseits möchte dieses Forschungsprojekt durch die theoriegeleitete Untersuchung eines Fallbeispiels neue Erkenntnisse zu konkreten Herausforderungen und möglichen Lernprozessen generieren.
Design/Methodologie/Vorgehen: Vom Autor dieser Arbeit wird eine theoriegeleitete Case Study Untersuchung durchgeführt. Dabei werden zwei theoretische Ansätze zugrunde gelegt, die das Phänomen um Herausforderungen von Jungunternehmen im Wachstum abstrahiert darstellen sollen: Einerseits das Spannungsbalancierende Management nach Harald von Korflesch, welches die grundsätzliche Spannungsgeladenheit unternehmerischer Organisationen zum Ausdruck bringt, was wiederum als Ausgangspunkt für konkrete Herausforderungen anzusehen ist. Andererseits das Tipping Points Absorbative Capaci ties Framework von Phelps und Kollegen, welches Herausforderungen (Tipping Points), die junge Unternehmen während ihrer Lebensdauer erleben werden, mit benötigten Fähigkeiten (Absorbative Capacities) in Verbindung bringt. Durch diese Theorien geleitet, werden reichhaltige Daten aus Interviews, Observationen und Dokumenten bei dem Fallbeispiel erhoben und analysiert.
Ergebnisse: Herausforderungen von jungen Unternehmen im Wachstum lassen sich einerseits auf übergeordneter Ebene mithilfe der beiden theoretischen Ansätze beschreiben. Andererseits zeigt die Analyse auch, dass vor allem eine feingranulare, individuelle Betrachtung von Nöten ist, um Herausforderungen und Lernprozesse adäquat abzubilden.
Forschungslimitationen: Die größte Limitation der vorliegenden Untersuchung findet sich im Single-Case Design. Dadurch, dass lediglich ein konkretes Fallbeispiel untersucht wurde, lassen sich die daraus gewonnen Erkenntnisse nicht auf automatisch auf vergleichbare Fallbeispiele replizieren. Durch die gleichzeitige Untersuchung mehrerer Cases könnten die Ergebnisse somit haltbarer gemacht werden.
Originalität/Beitrag: Durch die qualitative Untersuchung von Herausforderungen im Wachstum anhand eines konkreten Fallbeispiels wird ein eingehendes und tiefgreifendes Verständnis über komplexe Wirkungszusammenhänge im Wachstum von jungen Unternehmen geschaffen. Darüber hinaus werden die Annahmen der beiden theoretischen Ansätze an einem realen Fallbeispiel getestet, sodass theoretische wie praktische Implikationen identifiziert werden können.
Obwohl E-Partizipation immer mehr an Bedeutung gewinnt, werden Sicherheitsrisiken und -anforderungen bisher nur oberflächlich betrachtet. Diese Masterarbeit soll einen Beitrag zur Sicherheit und zum Datenschutz von E-Partizipationsanwendungen leisten. Dabei befasst sich die Arbeit mit dem Nutzer von elektronischen Beteiligungsformen. Da dieser im E-Partizipationsprozess seine persönlichen Daten bereitstellt, müssen Vertrauenswürdigkeit, Vertraulichkeit, Transparenz, Verfügbarkeit und Rechtssicherheit zwischen öffentlicher Verwaltung und Nutzer geschaffen werden. Eine der wichtigsten Maßnahmen hierbei ist es, einen möglichst hohen Sicherheits- und Datenschutzstandard in der Informations- und Kommunikationstechnologie durch die Verwaltung zu gewährleisten und dem Bürger Sicherheit im Umgang mit E-Partizipationsanwendungen zu geben. Die Masterarbeit untersucht verschiedene E-Partizipationsangebote der Bereiche Bürgerhaushalte, E-Konsultationen, Parteiwebseiten und E-Petitionen und beleuchtet zunächst, welchen Einfluss sicherheitskritische E-Partizipationssysteme auf das politische System haben können. Anschließend wird der derzeitige Sicherheitsstandard der E-Partizipationsangebote erfasst. Hierzu wird ein Analyse-Framework verwendet, das für E-Partizipation relevante Sicherheits- und Datenschutzaspekte betrachtet. Darauf aufbauend werden Sicherheitslevels für verschiedenen Typen von E-Partizipationsanwendungen abgeleitet und Empfehlungen für die Gestaltung von E-Partizipation gegeben. Auf Grundlage dessen werden Handlungsempfehlungen gegeben, die helfen können, E-Partizipationsanwendungen zukünftig sicherer zu gestalten. Weiterhin werden zukünftige Technologien vorgestellt, die das Potential haben, die Sicherheit bei der Nutzung von Systemen zur elektronischen Bürgerbeteiligung zu erhöhen.
Ziel der vorliegenden Arbeit war die Darstellung floristisch-pflanzensoziologischer Abhängigkeiten sommergrüner grundwasserferner Laubwaldgesellschaften vom Naturraumpotenzial im Laacher Kuppenland als Grundlage für die Bewertung der naturräumlichen Zuordnung. An Anfang stand eine Vorstellung des Untersuchungsgebietes, indem die derzeit gültige Gliederung des Naturraumes, die geologischen Verhältnisse, Oberflächenformen und Formungsprozesse sowie Klima dargestellt wurden. Hieran schloss sich die vegetationskundlich-standörtliche Charakterisierung der Waldgesellschaften – Hainsimsen-Buchenwald (Luzulo-Fagetum), Hainsimsen-(Habichtskraut)- Traubeneichenwald (Luzulo luzuloides-Quercetum petraeae), Waldmeister-Buchenwald (Galio-Fagetum), Waldlabkraut-Eichen-Hainbuchenwald (Galio sylvatici-Carpinetum betuli), Eschen-Ahorn-Steinschuttschatthangwald (Fraxino-Aceretum pseudoplatani) und verschiedenartige Trauben-Eichen-Bestände – an. Den Beschreibungen lagen zahlreiche Vegetationsaufnahmen zu Grunde, die eine auf standörtlichen Unterschieden beruhende Differenzierung der Gesellschaften möglich machten. Die Waldtypen zeigten ein abgestuftes Maß an Natürlichkeit. Den naturnächsten Charakter - und daher das standörtliche Potenzial am besten anzeigend – wiesen die Rot-Buchen-dominierten Laubwaldgesellschaften sowie einige Eschen-Ahorn-Steinschuttschatthangwälder auf. Nutzungsbedingt naturferner waren Hainsimsen-(Habichtskraut)- Traubeneichenwald und Waldlabkraut-Eichen-Hainbuchenwald. Forstwirtschaftliche Ersatzgesellschaften von Buchenwaldgesellschaften waren im Untersuchungsgebiet verschiedenartige Trauben-Eichen-Bestände. Auf Grundlage der Untersuchungsergebnisse sowie einer Literaturauswertung erfolgte eine Bewertung des Anschlusses des Laacher Kuppenlandes an eine Gruppe von naturräumlichen Haupteinheiten. Sowohl das floristische als auch das vegetationskundliche Inventar untermauerten die These, dass das Laacher Vulkanbergland als Teilgebiet des Mittelrheinischen Becken zu betrachten ist. Abschließend wurden Betrachtungen zu Biodiversität und Naturschutz vorgenommen. Als deren Fazit wurde vorgeschlagen, einen Nationalpark einzurichten, um zum Erhalt und zur Förderung der Artenvielfalt beizutragen und um der internationalen Verantwortung Deutschlands für Buchenwaldökosysteme nachzukommen.
Die vorliegende Untersuchung beschäftigt sich zentral mit der Frage, in wieweit es möglich ist, durch eine transkranielle Elektrostimulation während des Schlafs bei Patienten mit idiopathischem Parkinsonsyndrom (IPS) auf die Schlafqualität bzw. auf den Prozess der Gedächtniskonsolidierung Einfluss zu nehmen. Ausgehend von der Überlegung, dass bei dieser neurologischen Erkrankung Defizite sowohl im Bereich der Schlafqualität als auch der kognitiven Leistungsfähigkeit beobachtet werden können, wurde die Möglichkeit untersucht, entsprechende, bei jungen gesunden Erwachsenen vorbekannte Stimulationseffekte auf IPS-Patienten zu übertragen. Die Intervention bestand aus einer transkraniellen "Slow-Oscillation-Stimulation". Zielvariablen waren die Schlafqualität, in erster Linie operationalisiert über den Anteil an Slow-Wave-Sleep und die kognitive Leistung, gemessen am Lernerfolg in verschiedenen Lernaufgaben. Zur Anwendung kam dabei sowohl visuell verbales als auch non-verbales Lernmaterial, wobei die Aufgaben hauptsächlich den Bereich des deklarativen Gedächtnisses berührten. Es zeigte sich jedoch, dass bekannte Stimulationseffekte weder bei IPS-Patienten, noch bei gleichaltrigen Gesunden nachweisbar sind und daher die prinzipielle Übertragbarkeit bestehender Ergebnisse in Frage gestellt werden muss. Die Gründe hierfür erscheinen vielfältig und werden an entsprechender Stelle diskutiert.
Program slicing is a technique for extracting that parts of a program which influence a previously defined, so-called slicing criterion. The latter mostly takes the form of a source code statement and a set of variables. Over the years an abundance of variants and enhancements has evolved from the original notion of a program slice. One of these developments is called chopping. A chop only contains those statements which are necessary to sustain the effects of a certain statement on another statement. Corresponding to the slicing criterion, the two statements have to be available in advance. This diploma thesis deals with the development of a service model in order to support the computation of a slice or a chop, given an original program and a slicing or chopping criterion respectively. A service model is a framework of communicating services so that each service performs a specific task within the concept of program slicing. The three main tasks, without considering further decomposition, are the mapping of program code into a representation suitable for slicing, the slicing itself and the display of the slice as code. The key benefit of service-orientation is that a service encapsulates the underlying algorithms. Hence the possibility of improving or substituting them without changing the interfaces of the related service relieves the developer of the need of adapting adjoining services. Thus, service-orientation fosters maintainability and improvability. Besides the definition of the services, this thesis also partially formally defines the data flow between them, i.e. their interfaces. It also features graph class definitions for most data structures. An accurate description of the interfaces encourages reuse, provided the services are of adequate granularity.
IPv6 Autokonfiguration
(2008)
Diese Studienarbeit stellt verschiedene Möglichkeiten der automatischen Konfiguration von Netzwerkknoten unter IPv6, dem designierten Nachfolger des Internetprotokolls, vor. Dabei wird recht ausführlich in IPv6-Netzwerke eingeführt, wobei aber vorausgesetzt wird, dass der Leser Kenntnisse über das IP-Protokoll der Version 4 hat. Es werden sowohl die zustandslose als auch DHCPv6 ausführlich in der Theorie als auch im praktischen Einsatz gezeigt. Dafür wird das VNUML-System eingesetzt, das an der Technischen Universität Madrid entwickelt wurde und das es ermöglicht, mehrere Linuxsysteme auf einem Wirtsrechner zu simulieren.
In dieser Arbeit wird ein zweigeteilter Regler für die Pfadverfolgung eines Modellfahrzeugs mit einachsigem Anhänger entwickelt. Darüber hinaus wird ein Beweis für die Stabilität und die Konvergenzeigenschaft der gefundenen Regelungsgesetze geliefert. Das Verfahren wird anschließend in die bestehende Steuersoftware des Versuchsfahrzeuges integriert und eine Testumgebung erstellt, um das Regelungsverfahren damit abschließend zu evaluieren.
In dieser Bachelorarbeit wird ein Simulationscode für astrophysikalische
Simulationen von Fluiden unter dem Einfluss ihrer eigenen
Gravitation entwickelt. Der Code wird hauptsächlich von der GPU
ausgeführt. Leichte Vereinfachungen der physikalischen Modelle und
einige Parameter zum Steuern von Genauigkeit und Rechenaufwand
ermöglichen das Simulieren mit interaktiver Bildwiederholrate auf den
meisten handelsüblichen, modernen Computern mit einer dedizierten
Grafikkarte. Der Simulationscode wird verwendet, um die Entstehung
von Sternen aus einer Gaswolke zu simulieren. Einige Merkmale der
Sternentstehung, wie zum Beispiel Akkretionsscheiben und Fragmentierung,
lassen sich selbst bei niedrigen Partikelzahlen beobachten.
Wie hingen Sprache und Gewalt im Nationalsozialismus zusammen? Ausgehend von der konstitutiven Sprachphilosophie des kanadischen Philosophen Charles Taylor untersucht die Dissertation die destruktive Wirkmacht der Sprache am Fall des Nationalsozialismus, der auf ungekannte Weise in die Sprache eingriff und damit Gewalt begünstigte, die bis heute ohnegleichen ist.
Diese Arbeit untersucht die neue Finanzierungsform Crowdfunding. In den letzten Jahren entwickelten sich immer mehr Crowdfunding Plattformen im Internet. Zentrale Frage ist, ob Crowdfunding in absehbarer Zeit eine alternative Finanzierungsmöglichkeit für soziale Organisationen darstellt. In dieser Arbeit wird die Entstehung und Entwicklung von Crowdfunding aufgeführt und die unterschiedlichen Formen des Crowdfundings erläutert. Es wird ein Überblick über deutsche Crowdfunding Plattformen gegeben und Erfolgsfaktoren von Crowdfundingprojekten werden aufgezeigt. In einem Fallbeispiel wird aus den vorher gewonnenen Ergebnissen ein Konzept für die Finanzierung eines sozialen Projekts auf einer Crowdfunding Plattform erstellt.
In dieser Arbeit werden auf der Basis des aktuellen Forschungsstandes der Politolinguistik die Relevanz und Erklärungsmöglichkeiten politolinguistischer Analysen für das Verständnis der Sprachverwendung und Sprachprägung in der Politik am Beispiel der rechtspopulistischen Rhetorik der Alternative für Deutschland thematisiert. Die Arbeit folgt im Allgemeinen der Fragestellung, inwiefern die Politolinguistik die Sprachverwendung in der Politik und die dort entstehenden, sprachlichen Prägungen lexikalisch analysieren und mithilfe der politolinguistischen Lexikanalyse die durch politische Akteure vermittelten, politischen Intentionen offenlegen kann. Im Besonderen wird sich daran die Frage anschließen, auf welche Weise sich mit den Analysewerkzeugen der politolinguistischen Lexikanalyse das Kurzwahlprogramm der Alternative für Deutschland zur Bundestagswahl 2017 im Hinblick auf ihre rechtspopulistische Rhetorik untersuchen lässt und dortige, lexikalische Prägungsversuche der AfD identifiziert werden können.
Am Schluss der Arbeit steht Erkenntnisfortschritt, der eine deskriptive Erörterung der Relevanz und Möglichkeiten politolinguistischer Lexikanalysen sowie ihrer Werkzeuge für die Untersuchung politischer Sprachverwendung und durch Wortprägungen offenbarter Intentionen beinhaltet, dabei explizit sowohl etablierte als auch neuere Erkenntnisse des Forschungsfeldes miteinbezieht und diese im Hinblick auf die Anwendbarkeit zur Erforschung rechtspopulistischer Rhetorik reflektiert.
Ziel dieser Studienarbeit ist es, eine vorhandene video-see-through Augmented Reality Visualisierung (ARToolKit) anhand von Shaderprogrammierung mit der OpenGL Shading Language um nicht-photorealistische Renderingverfahren zu ergänzen. Dabei sollen nicht nur die virtuellen Objekte mit diesen Verfahren dargestellt, sondern auch die realen vom ARSystem gelieferten Bilder analog stilisiert werden, sodass die Unterscheidbarkeit zwischen Realität und Virtualität abnimmt.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Ziel dieser Arbeit ist es, markerloses Tracking unter dem Ansatz der Analyse durch Synthese zu realisieren und dabei auf den Einsatz merkmalsbasierter Verfahren zu verzichten. Das Bild einer Kamera und ein synthetisches Bild der Szene sollen durch den Einsatz von Stilisierungstechniken so verändert und angeglichen werden, dass zu dem gegebenen Kamerabild aus einer Auswahl von gerenderten Bildern jenes erkannt werden kann, welches die reale Kamerapose am exaktesten wiedergibt. Es werden Kombinationen von Ähnlichkeitsmaßen und Visualisierungen untersucht, um eine bestmögliche Vergleichbarkeit der Bilder zu erreichen, welche die Robustheit gegen Trackingfehler erhöhen soll.
In dieser Bachelorarbeit wird eine Datenbank für weltweite Eisenbahn-Unfalluntersuchungsstellen erstellt. Sie beinhaltet Kontaktdaten zu jenen Behörden als auch Angaben zu öffentlich gestellten Unfalluntersuchungsberichten. Die Datenbank soll als Grundlage zur Informations- und Datenbeschaffung von Eisenbahnunfällen dienen. Die Angaben, die aus Untersuchungsberichten entnommen werden können, sind wichtige Bestandteile für eine mögliche Bewertung der Wirtschaftlichkeit und Effizienz von Sicherheitstechnologien. Neben den Grundlagen zu Untersuchungsstellen, Untersuchungsberichten und der Effizienzberechnung von Sicherheitstechnologien wird in dieser Arbeit auch eine Auswertung der in der Datenbank vorhandenen Untersuchungsstellen und den gefundenen Untersuchungsberichten präsentiert. Ebenfalls wird der Nutzen der Datenbank von Unfalluntersuchungsstellen erläutert und die möglichen Auswirkungen auf die Eisenbahnsicherheit näher gebracht.
In dieser Arbeit werden einige bekannte Spam Klassiffzierungsmethoden, welche für viele Anwendungen schon im Einsatz sind, kurz erläutert, um sie in einem neuen Szenario zu analysieren. In diesem Szenario wird nicht wie bei E-Mails üblich davon ausgegangen, dass die Nachrichten unbegrenzter Länge sein können, sondern dass es sich hierbei um Nachrichten begrenzter Länge handelt. Auch die Darstellungsform und der vermutliche Inhalt solcher Nachrichten werden aus einem speziellen Kontext heraus betrachtet. So wird davon ausgegangen, dass die Nachrichten auf einem Ticker eines Bildschirmes zu sehen sind, welcher in einer Universität angebracht ist. Somit werden die Nachrichteninhalte sich eher auf das universitäre Umfeld beziehen, wobei angenommen wird, dass die Nachrichteninhalte nur von einer abgeschlossenen Gruppe von Personen eingestellt werden. Nach der Erzeugung einiger Spam- und Hamnachrichten, die auf die Kriterien des Szenarios zutreσfn, werden Klassiffzierungsmethoden evaluiert. Am Ende der Analyse folgt eine Diskussion über die Verwendbarkeit jener Methoden in diesem Szenario. Abgeschlossen wird diese Untersuchung von einem Programm, welches die entsprechenden Methoden zur Klassifizierung implementiert.
Aspekt-Orientierung in PHP
(2012)
Diese Diplomarbeit hat das Thema der fehlenden Cross-Cutting-Concerns(CCCs)-Unterstützung in PHP zum Inhalt. Die Basis bilden zu definierende Anforderungen an eine AOP-Realisierung im PHP-Umfeld. Es wird analysiert, wie und ob verwandte Sprachen und Paradigmen es gestatten, CCCs zu unterstützen. Darüber hinaus wird die Möglichkeit erörtert, AOP in PHP ohne PHP-Erweiterung zu realisieren. Weiter werden die bisherigen Ansätze, AOP in PHP umzusetzen, qualitativ untersucht. Die vorliegende Arbeit zielt darauf ab, eine eigene AOP-PHP-Lösung zu präsentieren, die nicht die Schwächen existierender Lösungen teilt.
Diese Bachelorarbeit befasst sich mit der Entwicklung einer Anwendung für die HoloLens von Microsoft. Die Anwendung dient der Vermarktung von Werbeflächen der Firma awk AUSSSENWERBUNG GmbH. Anhand der Entwicklung wird die Frage beantwortet, welches die Möglichkeiten und Grenzen der HoloLens in Verbindung mit der Mixed Reality Platform sind. Dabei wird auch auf die Probleme eingegangen, welche bei der Ent- wicklung einer Anwendung für eine neue Technologie, wie die HoloLens auftreten. Neben der neuen Technologie, ergeben sich auch durch den Ein- satzort der Anwendung weitere Herausforderungen. Diverse Anwendungs- beispiele und Präsentationen lassen vermuten, dass die HoloLens primär für Anwendungen innerhalb von Räumen ausgelegt ist. Die zu entwickeln- de Anwendung ist dagegen für die Verwendung außerhalb geschlossener Räume konzipiert. Bei der Entwicklung konnten Erkenntnisse über die- se neue Technologie gewonnen werden. Zum einen wurde deutlich, dass sowohl die HoloLens, als auch die Entwicklungsumgebung noch an eini- gen Stellen verbessert werden können. Zum anderen, dass die HoloLens nicht für den Einsatz im Freien geeignet ist. Trotz der Schwierigkeiten bei der Entwicklung konnten auch die vielen Möglichkeiten der HoloLens be- leuchtet werden.
Diese Arbeit zeigt eine neue Technik der Computergrafik zur Simulation von globaler Beleuchtung durch Path Tracing in Echtzeit. Das Path Tracing wird dafür mit Compute Shadern auf der Grafikkarte (GPU) realisiert, um das Rendering hoch parallelisiert auszuführen. Zur Beschleunigung der Strahlverfolgung wird dabei der
Line Space in verschiedenen Varianten als Datenstruktur verwendet, um leere Bereiche in der Szene schneller zu überspringen. Der Line Space speichert Szeneninformationen basierend auf einer Voxelisierung in richtungsabhängige Shafts und wird sowohl auf der GPU generiert, als auch traversiert. Mit diesem Verfahren kann eine Szene physikalisch korrekt indirekt beleuchtet und mit weichen Schatten schattiert werden. Außerdem kann das Path Tracing damit weitgehend unabhängig von der Polygonanzahl mit über 100 Bildern pro Sekunde klar in Echtzeit durchgeführt werden und ist somit deutlich schneller als mit einem vergleichbaren Voxel-Gitter. Die Bildqualität wird davon nicht negativ beeinflusst und die Schattenqualität ist in den meisten Fällen deutlich besser als bei der Verwendung von Shadow-Mapping.
Ein Gonioreflektometer ist ein Gerät zum Vermessen der Reflexionseigenschaften von Materialien. Ein solche Apparatur wird in dieser Arbeit mit handelsüblichen Bauteilen gebaut. Dafür werden drei Schrittmotoren und 809 Leuchtdioden mit einem Arduino-Mikrocontroller gesteuert. Als Reflexionsdaten werden RGB-Bilder mit einer industriellen Kamera aufgenommen. Zusätzlich wird eine Steuersoftware für verschiedene Aufnahmeprogramme sowie ein Renderer zum Anzeigen der vermessenen Materialien implementiert. Somit können komplette bidirektionale Reflektanz-Verteilungsfunktionen (BRDFs) aufgenommen und gerendert werden, wodurch selbst komplizierte anisotrope Materialeigenschaften repräsentierbar sind. Die Qualität der Ergebnisse ist aufgrund von Schattierungen zwar Artefakt-behaftet, jedoch können diese Artefakte durch entsprechende Algorithmen wie Inpainting weitestgehend behoben werden. Außerdem wurde das Gonioreflektometer auf andere Anwendungen übertragen. So sind ohne Veränderungen am Gerät auch 3D-Scans, Lichtfeldaufnahmen und Light-Staging möglich. Auch die Qualität der Ergebnisse dieser Aufnahmeverfahren entspricht den Erwartungen im positiven Sinne. Somit ist das in dieser Arbeit gebaute Gonioreflektometer im Vergleich zu anderen Publikationen eine breit anwendbare und kostengünstige Alternative.
Experten der Praxis haben zur Wirkung von Heimerziehung ihre Meinung. Die Einschätzung der Adressaten verhält sich dazu nicht immer deckungsgleich. In der vorliegenden Arbeit arbeitet der Autor im fallinterpretativen-hermeneutischen Untersuchungsdesign die Konstruktionen von jungen Menschen, die im Heim leben zu ihren persönlichen Wirkungsvorstellungen und "überzeugungen bzgl. der Ursachen ihrer eigenen Veränderung und Entwicklung heraus. Diese Konstruktionen werden in Bezug gesetzt zu den aktuellen Ergebnissen aus der Heimerziehungsforschung. Diese Befunde werden ins Verhältnis gesetzt mit den Ergebnissen aus der vorliegenden Untersuchung und dadurch untermauert, konkretisiert, ergänzt und erweitert. Daraus werden Folgerungen für die Praxis abgeleitet. Das Zusammenspiel von konzeptionellem Rahmen, Strukturen und Bedingungen der Heimerziehung wird im Zusammenhang mit den Interessen, den Aneignungsbemühungen und den Selbstwirksamkeitserfahrungen der Adressaten diskutiert und dargestellt Die aus der Untersuchung erwachsenen Ableitungen werden im historischen Aufriss des Pädagogischen Bezugs reflektiert, mit dem Versuch einer aktuellen Ortsbestimmung der Pädagogischen Beziehung. Außerdem werden die Grundzüge der Positive Peer Culture wiedergegeben und mit Praxisbeispielen illustriert
Ray Tracing als Bildsyntheseverfahren ist relevant für viele Anwendungsbereiche, da es Aspekte des Lichttransports physikalisch korrekt simulieren kann. Aufgrund des hohen Berechnungsaufwands sind der Einsatz von Datenstrukturen zur Beschleunigung und die parallele Verarbeitung notwendig. GPUs sind inzwischen hoch parallele, programmierbare Prozessoren mit zahlreichen Kernen und eignen sich aufgrund ihrer hohen Leistungsfähigkeit dazu, aufwändige, parallelisierbare Probleme zu lösen. In dieser Arbeit geht es um GPU Ray Tracing, beschleunigt durch Bounding Volume Hierarchien (BVH). Auf Basis relevanter Veröffentlichungen zu Aufbau und Traversierung von BVHs und der Abbildung des Ray Tracing Prozesses auf die GPU Architektur wird ein GPU Ray Tracer konzeptioniert und entwickelt. Während der BVH Aufbau vorab auf dem Host stattfindet, wird der gesamte Ray Tracing Prozess durch mehrere Kernel komplett auf der GPU ausgeführt. Die Implementierung der Kernel erfolgt in Form von OpenGL Compute Shader Programmen, und die Aufteilung des Ray Tracers auf mehrere Kernel ist durch die GPU Achitektur und das SIMT Ausführungsmodell motiviert. Für die Speicherorganisation der binären BVHs werden zwei Varianten betrachtet, klassisch und als MBVH, wobei sich die MBVH Organisation als effizienter erweist. Zudem werden verschiedene Varianten für die Traversierung ohne Stack und für die Stack-basierte Traversierung umgesetzt und bewertet. Der in mehrere Kernel strukturierte GPU Ray Tracer wird zudem mit einer Einzelkernel Version verglichen. Die besten Ergebnisse erreicht die Traversierung ohne Stack mit einem while-while Ablauf und MBVH im Rahmen des aufgeteilten GPU Ray Tracers.
Ziel dieser Arbeit war es, ein (ggf. aus Teilverfahren zusammengesetztes) Gesamtsystem zur Generierung von Stadt- und Gebäudemodellen zu entwickeln und umzusetzen. Dabei war insbesondere wichtig, dass die baulichen Elemente einer Stadt durch realistisch wirkende, dreidimensionale Formen repräsentiert und auch in großer Anzahl unter Echtzeit-Bedingungen dargestellt werden können.
"Wer kann ich werden - Wer soll ich sein?" Selbstbildungsprozesse junger Menschen in der Jugendhilfe
(2011)
"Wer kann ich werden - Wer soll ich sein?" - Mit diesen beiden grundlegende Lebensfragen resümieren die beiden Jugendlichen, deren individuellen Verarbeitungsprozesse Gegenstand der Untersuchung sind, ihren (Selbst-)Bildungsprozess. Sie verweisen dabei auf ein wesentliches Ergebnis dieser Studie: Selbstbildungsprozesse formieren sich als einen aktiven Balanceakt der jungen Menschen zwischen individuellen Selbstkonstruktionen und Fragen der Sozialintegration. Der Blick wird dabei auf die prozesshafte Entwicklung der subjektiven Bildungsbemühungen gerichtet. Es handelt sich um ein ambivalentes Spannungsgefüge, welches sich darin ausdrückt, dass einerseits "von Außen (durch den Erzieher) geleitet" und andererseits "von Innen (durch den Jugendlichen) gesteuert" wird. Letztendlich haben jedoch viele Jahrhunderte von (praktischen) Erziehungsversuchen und vielfaches (theoretisches) Nachdenken über Erziehung und Bildung gezeigt, dass der Erfolg zum großen Teil von den jungen Menschen selbst abhängt. Damit rückt in der wissenschaftlichen Auseinandersetzung die Selbsttätigkeit des Menschen in den Fokus. Die Beschäftigung mit Prozessen der Selbstbildung stellt eine äußert komplexe Herausforderung dar. Sie läuft schnell Gefahr, dies unter normativen Aspekten zu diskutieren. In diesen Forschungszusammenhang soll der Blick explizit nicht auf die normativen Anteile des Themas gelenkt werden, sondern es ist vielmehr ein Ziel der Arbeit, empirische Befunde dazu zu erarbeiten und Kontextwissen zu generieren.rnDie Untersuchung thematisiert sowohl die Verbindungen zwischen Selbstdeutungskonstruktionen junger Menschen und Fremddeutungen relevanter Erwachsener, sowie die sich daraus entwickelten Muster der Lebensbewältigung der Jugendlichen. Im Mittelpunkt der Auseinandersetzung stehen die jungen Menschen und ihre Bildungsanstrengungen. Anhand ihrer Selbstkonstruktionen, in denen sie ihre relevanten Themen zum Ausdruck bringen und den Fremddeutungen der am Fall beteiligten Erwachsenen, wird der Frage nachgegangen, ob und wie die unterschiedlichen Deutungsfolien anschlussfähig sind und welchen Einfluss sie auf die jugendlichen Selbstbildungsprozesse nehmen. Durch die Rekonstruktion der Deutungs- und Konstruktionsmuster der unterschiedlichen Fallbeteiligten sollen sowohl praxis- wie auch forschungsrelevante Erkenntnisse über Selbstbildungsprozesse junger Menschen gewonnen werden, die im Verlauf ihrer Lebensgeschichten Adressaten der Jugendhilfe geworden sind. Ein solch komplexes Forschungsvorhaben gewinnt im Bezug auf die Diskurse zur adressatenbezogenen Jugendhilfe an Bedeutung, da es möglich wird, einen Einblick in Verarbeitungsmuster und Bewältigungsstrategien der Heranwachsenden zu gewinnen. Die vorliegende Arbeit nimmt die subjektiven Sinnzuschreibungen in den Blick, um darüber einen erkenntnisgeleiteten Zugang zu den Deutungs- und Konstruktionsmustern in ihren jeweiligen Sinnzusammenhängen zu erschließen. Gesamtgesellschaftliche Modernisierungs- und Wandlungsprozesse beeinflussen individuelle Lebensverläufe und damit auch subjektive Deutungen unterschiedlichster Lebensereignisse. Biographische Werdungsprozesse weichen von vermeintlichen "Normalbiographien" ab. Aufgabe pädagogischer Fachkräfte ist es, die selbstreflexiven Verarbeitungsprozesse junger Menschen zu begleiten und zu unterstützen. Von daher scheint es erforderlich, dass Fachkräfte ihre Kompetenzen zur Entschlüsselung individueller Bildungsbemühungen und zur Wahrnehmung biographischer Deutungskonzepte weiter entwickeln und schulen, um einen verstehenden Zugang zu den Wirklichkeitskonstruktionen junger Menschen zu gewinnen. Welche subjektive Bedeutung die Heranwachsenden den Einflüssen der Jugendhilfe zusprechen ist entscheidend für die Frage, inwieweit sie diese Erfahrungen als Unterstützung für ihre individuellen Bildungsprozesse begreifen. "Selbstbildungsprozesse junger Menschen in der Jugendhilfe" setzen sich mit der Frage auseinander, über welche Bewältigungsstrategien und Interaktionsmuster die Heranwachsenden verfügen. "Mit diesem Zugang wird der Blick auf die "Eigensinnigkeit" subjektiver Äußerungen in ihren biografisch verorteten und gesellschaftsrelevanten Bezügen gelegt." (Normann 2003, 10). Es geht also um die Rekonstruktion sozialer Wirklichkeitsbezüge aus der Sicht der jungen Menschen. Die Jugendlichen werden als aktiv Handelnde und als ExpertInnen ihrer Lebenswelt verstanden, die in der Interaktion mit Anderen die Balance zwischen sozialer Anpassungsleistung und Entwicklung ihres individuellen Lebenskonzeptes finden müssen. Subjektive Deutungs- und Konstruktionsprozesse sollen in diesem Kontext herausgearbeitet und dargestellt werden.
In der Computergrafik stellte die Berechnung von Reflexionen lange ein
Problem dar. Doch mit der ständigen Weiterentwicklung der Hardware
und Vorstellung neuer Verfahren ist eine realitätsnahe,
echtzeitfähige(durchschnittlich 60 FPS) Berechnung von Reflexionen möglich. In der folgenden Ausarbeitung werden verschiedene Reflexionsverfahren vorgestellt. Alle mathematischen und physikalischen Grundlagen werden gegeben, um die Algorithmen nachvollziehen zu können. Da eine Reflexion immer das Abtasten eines reflektierten Vektors bedeutet, werden zwei verschiedene Abtastungsverfahren für blickabhängige Reflexionen vorgestellt und anschließend implementiert. Zuletzt werden die Verfahren auf Basis von Qualität und Performance gegenübergestellt.
In dieser Studienarbeit werden neben den Grundlagen der Web Services, Komponenten und APIs zur Realisierung des Sticky Loggings aufgezeigt. Es wird ein Szenario zum Testen des Sticky Loggings beschrieben und als Web Services implementiert. Der Sticky-Logging-Formalismus wird erklärt und es wird eine API zur Erstellung der StickyLogs implementiert. Die StickyLogs werden innerhalb des SOAP-Attachments der SOAP-Nachrichten zwischen den Web Services ausgetauscht. Dazu wird eine Realisierung mit einem Messagehandler unter JAX-WS programmiert und erläutert.
Große Gebiete lassen sich auf Grund von Schattenbildung und begrenzter Scanreichweite nicht mit einem einzigen 3D-Scan aufnehmen. Um konsistente dreidimensionale Karten dieses Gebietes zu erzeugen müssen also mehrere Scans zusammengefügt werden. Soll dieses Matchen der Scans automatisch geschehen, so kann es wegen fehlerhaften Translations- und Rotationsdaten, die die unterschiedlichen Positionen der Scans beschreiben,zu inkonsistenten Karten kommen. Um dies zu vermeiden wird in dieser Arbeit ein schneller Iterativ Closest Points Algorithmus implementiert, der versucht, Fehler in diesen sechs Freiheitsgraden zu korrigieren. Das Verfahren soll im Rahmen dieser Arbeit in die schon vorhandene Software unseres Roboters eingebunden werden.
Mittels facettierter Suche lassen sich große, unbekannte Datensätze einfach und gezielt erkunden. Bei der Implementation von Anwendungen für Smartphones ist zu beachten, dass im Gegensatz zu Desktop-Anwendungen ein kleinerer Bildschirm und nur beschränkte Möglichkeiten zur Interaktion zwischen Benutzer und Smartphone zur Verfügung stehen. Diese Beschränkungen können die Benutzbarkeit einer Anwendung negativ beeinflussen. Mit FaThumb und MobileFacets existieren zwei mobile Anwendungen, die die facettierte Suche umsetzen und verwenden, aber nur MobileFacets ist für gegenwärtige Smartphones mit Touchscreenbildschirm ausgelegt.
Jedoch bietet FaThumb eine neuartige Facettennavigation, die durch MFacets in dieser Arbeit für aktuelle Smartphones neu realisiert wird. Außerdem befasst sich diese Arbeit mit der Durchführung einer summativen Evaluation zwischen den beiden Anwendungen, MFacets und MobileFacets, bezüglich der Benutzbarkeit und präsentiert die ausgewerteten Ergebnisse.
Mittels SPARQL können Anfragen in Form von RDF Tripeln auf RDF Dokumente gestellt werden. OWL-DL Ontologien sind eine Teilmenge von RDF und können über spezifische OWL-DL Ausdrücke erstellt werden. Solche Ontologien über RDF Tripel anzufragen kann je nach Anfrage kompliziert werden und eine vermeidbare Fehlerquelle darstellen.
Die SPARQL-DL Abstract Syntax (SPARQLAS) löst dieses Problem indem Anfragen mittels OWL Functional-Style Syntax oder einer der Manchester Syntax ähnlichen Syntax gestellt werden. SPARQLAS ist eine echte Teilmenge von SPARQL und verwendet nur die nötigsten Konstrukte, um mit möglichst wenig Schreibaufwand schnell die gewünschten Ergebnisse zu Anfragen auf OWL-DL Ontologien zu erhalten.
Durch die Verringerung des Umfangs einer Anfrage und der Verwendung einer dem Nutzer bekannten Syntax lassen sich komplexe und verschachtelte Anfragen auf OWL-DL Ontologien einfacher realisieren. Zur Erstellung der spezifischen SPARQLAS Syntax wird das Eclipse Plugin EMFText verwendet. Die Implementation von SPARQLAS beinhaltet zudem noch eine ATL Transformation zu SPARQL. Diese Transformation erspart die Entwicklung eines Programms zur direkten SPARQLAS Verarbeitung und erleichtert so die Integration von SPARQLAS in bereits laufende Entwicklungsumgebungen.
In einer Welt, die immer mehr durch den Einsatz von Technik geprägt wird, gewinnen Systeme, welche eigenständig Aufgaben in einem vorgegebenen Kontext übernehmen können, mehr und mehr an Bedeutung. Solche Systeme werden als autonome Systeme bezeichnet, die ein eigenständiges Verhalten und Interaktionen mit ihrer Umwelt und anderen Systemen beinhalten. Zu diesen Systemen zählen auch autonome mobile Roboter. Sie sind sozusagen intelligente Fahrzeuge, die ihnen übertragene Aufgaben ohne menschliche Unterstützung durchführen können. Um ihre Umwelt wahrzunehmen, mit ihr interagieren und in ihr navigieren zu können benötigen diese Systeme verschiedene Arten von Sensoren. Somit ist die Robotikforschung stark interdisziplinär. Diese Arbeit befasst sich ausschliesslich mit dem Bereich der Navigation, insbesondere mit der Positionsbestimmung, welche für eine gute Navigation die Grundlage bildet. Ein heutzutage häufig benutztes, weltweit verfügbares System zur Positionsbestimmung ist GPS. Ziel dieser Arbeit ist der Anschluss eines GPS-Moduls an einen Mikrocontroller und der Versuch die Positionsgenauigkeit lokal zu präzisieren, um so einem autonomen System die Möglichkeit zur eröffnen, Aufgaben, die eine höhere Genauigkeit erfordern, zu bewerkstelligen.
Eine Art der Darstellung von Geschäftsprozessen sind die Modulnetze, eine spezielle Form von Petri-Netzen. Die Software Join ist in der Lage, Prozessdefinitionen textueller Art entgegenzunehmen und sie in ein Modulnetz zu überführen. In dieser Arbeit wird ein Layout-Modul für Join entwickelt, das eine grafische Darstellung der Modulnetze generiert und zur Anzeige aufbereitet. Zunächst werden einige Grundlagen der Graphentheorie erläutert. Sodann werden alle zum Netz gehörenden Elemente durch Zuteilung abstrakter Koordinaten auf einer gedachten Zeichenfläche verteilt. Dazu wurde der Graph in Flüsse, zusammenhängende Knotenfolgen, aufgeteilt und das gesamte Layout an diesen Flüssen ausgerichtet. Aus dem abstrakten Layout wird anschließend eine SVG-Datei generiert. Die Dokumentation der Implementation erfolgt zusammen mit einer Beschreibung der Architektur von Join und des neuen Layout-Moduls. Die Integration des Moduls in Join ist noch nicht vollständig. Später sollen z.B. Modulnetzbeschreibungen automatisch entgegengenommen und bearbeitet werden. Durch Modifikationen werden auch ereignisgesteuerte Prozessketten visualisierbar sein.
Nutzung von Big Data im Marketing : theoretische Grundlagen, Anwendungsfelder und Best-Practices
(2015)
Die zunehmende Digitalisierung des Alltags und die damit verbundene omnipräsente Datengenerierung bieten für Unternehmen und insbesondere Marketingabteilungen die Chance, Informationen in bisher ungekannter Fülle über ihre Kunden und Produkte zu erhalten. Die Gewinnung solcher Informationen aus riesigen Datenmengen, die durch neue Technologien ermöglicht wird, hat sich dabei unter dem Begriff Big Data etabliert.
Die vorliegende Arbeit analysiert diese Entwicklung im Hinblick auf das Potenzial für die unternehmerische Disziplin des Marketings. Dazu werden die theoretischen Grundlagen des Einsatzes von Big Data im Marketing identifiziert und daraus Anwendungsfelder und Best-Practice-Lösungen abgeleitet. Die Untersuchung basiert auf einer Literaturanalyse zu dem Thema Big Data Marketing, welche neben verschiedenen Studien und Befragungen auch Expertenmeinungen und Zukunftsprognosen einschließt. Die Literatur wird dabei zunächst auf die theoretischen Grundlagen des Konstrukts Big Data analysiert.
Anschließend wird die Eignung von Big Data Lösungen für den Einsatz in Unternehmen geprüft, bevor die Anwendung im Bereich des Marketings konkretisiert und analysiert wird. Es wurde dabei festgestellt, dass anhand der theoretischen Aspekte von Big Data eine starke Eignung für den Einsatz im Rahmen des Marketings besteht. Diese zeichnet sich vor allem durch die detaillierten Informationen über Verhaltensmuster von Kunden und ihre Kaufentscheidungen aus. Weiterhin wurden potenzielle Anwendungsfelder identifiziert, welche besonders im Bereich der Kundenorientierung und der Marktforschung liegen. Im Hinblick auf Best-Practice-Lösungen konnte ein grober Leitfaden für die Integration von Big Data in die Unternehmensorganisation entwickelt werden. Abschließend wurde festgehalten, dass das Thema Big Data eine hohe Relevanz für das Marketing aufweist und dies in der Zukunft maßgeblich mitbestimmen wird.
Zur Erkennung vorhandener Usability-Probleme führen Usability-Experten Nutzerstudien durch. Eine etablierte Methode ist das Aufzeichnen von Blickverhalten
mit einem Eye-Tracker. Diese Studien erfordern allerdings einen hohen Aufwand für die Auswertung der Ergebnisse. Eine automatisierte Erkennung von guter und schlechter Usability in aufgezeichneten Nutzerdaten kann den Usability-Experten bei der Eye-Tracking-Auswertung unterstützen und den Aufwand reduzieren. Das Ziel der vorliegenden Arbeit ist die Identifizierung geeigneter Eye-Tracking-Metriken, die mit der Qualität der Usability korrelieren. Dazu wird die Forschungsfrage beantwortet:
Welche Eye-Tracking-Metriken korrelieren mit der Qualität der Bedienung eines Web-Formulars? Zur Beantwortung wurde eine quantitative A/B- Nutzerstudie mit Eye-Tracking durchgeführt und das Blickverhalten von 30 Probanden während der Bearbeitung eines Web Formulars aufgezeichnet.
Das Web-Formular wurde so gestaltet, dass jede Web-Formularseite als gute und schlechte Variante nach bekannten Usability-Richtlinien vorlag. Die Ergebnisse bestätigen einen signifikanten Zusammenhang der Eye-Tracking-Metrik "Anzahl der Besuche einer AOI" mit der Qualität der Bedienung eines Web-Formulars. Die Eye-Tracking-Metriken "Anzahl der Fixationen innerhalb einer AOI" und "Dauer der Fixationen innerhalb einer AOI" korrelieren ebenfalls mit der Qualität der Usability. Für die "Zeit der ersten Fixation innerhalb einer AOI" konnte keine Korrelation bestätigt werden.
Infinite worlds
(2013)
Diese Arbeit befasst sich mit dem Erstellen eines 2D-Action-Adventures mit Rollenspielelementen. Sie soll einen Überblick über verschiedene Aspekte der Realisierung geben. Zuerst wird die Spielidee und die verwendeten Spielmechanismen beschrieben und daraus eine Anforderungsdefinition erstellt. Nachdem das verwendete Framework kurz erläutert wurde, wird das softwaretechnische Konzept zur Realisierung vorgestellt. Die Umsetzung der Komponenten Steuerung, Spieleditor, Sound und Grafiik wird aufgezeigt. Bei der grafiischen Umsetzung wird ein besonderes Augenmerk auf die Abstraktion von Licht und Schatten in die 2D-Spielewelt gelegt.
Hubschrauber sind aus heutiger Sicht unverzichtbar. Eine Reihe von Anwendungsgebieten zeigt das Einsatzspektrum, die andere Flugmuster im Vergleich zum Hubschrauber nicht leisten können. Allerdings handelt es sich bei einem Hubschrauber um ein sowohl technologisch als auch physikalisch hochkomplexes System. Entsprechend aufwendig ist die Aus- und Weiterbildung von Piloten. Gerade in den letzten zwei Jahrzehnten hat sich daher die Flugsimulation als wertvolle Ergänzung zum klassischen Training herausgestellt. Mittels Flugsimulatoren ist es möglich, schwierige oder gar gefährliche Situationen bedarfsgerecht nachzuempfinden und zu üben. Im Rahmen dieser Arbeit soll ein vereinfachter Hubschraubersimulator, basierend auf Starkörperkinematik, entwickelt werden. Dabei wird ein idealisiertes Rotormodell angenommen und auf komplexe strömungsmechanische Phänomene verzichtet, um eine Implementation übersichtlich zu illustrieren und echtzeitfähig zu sein. Dabei sind die Module dementsprechend in der Unreal Engine umgesetzt, dass eine Adaption an andere Flugmuster ohne großen Aufwand möglich ist.
Ziel dieser Arbeit ist es, eine Anwendung für ein Augmented Reality Fernrohr zu entwickeln, die verschiedene Interaktions- und Explorationsmöglichkeiten umsetzt. Darüber hinaus sollen Erkenntnisse über den Einfluss auf die Vermittlung von Wissen gewonnen werden. Dafür soll innerhalb von sechs Monaten neben der Einarbeitung in die verschiedenen Themengebiete, dem Entwurf eines Konzepts und der Implementierung der Anwendung auch eine gründliche Evaluation durchgeführt werden. Da der Standort des Fernrohrs im Rahmen der Bundesgartenschau 2011 [BUG] in Koblenz am Rheinufer in der Nähe der Talstation der Seilbahn ist, bietet es sich an die Festung Ehrenbreitstein in den Fokus zu setzen. Dabei soll vor allem die Festungsarchitektur im Mittelpunkt stehen. Die Anwendung soll dem Benutzer einen Überblick über die Festungsanlagen geben und nebenbei auch einige geschichtliche Fakten vermitteln.
Um die verschiedenen Anforderungen und die damit verbundenen Aufgaben zu erfüllen und strukturiert zu erarbeiten, wurde vor Beginn der Arbeit ein Projektplan erstellt, der die 6 Monate in fünf verschiedenen Phasen unterteilt, die jeweils mit Meilensteinen enden. Die Phase soll die Einarbeitung in die Grundlagen, die Entwicklung des Konzepts und die softwaretechnische Planung umfassen. Die nächste Phase beschäftigt sich mit der Präevaluation, die genaueren Aufschluss über die Qualität des entwickelten Konzepts geben soll. Im Anschluss an die Auswertung der Präevaluation kommt die erste Implementierungsphase, die mit einem Prototypen abschließen soll. Im zweiten Implementierungsschritt sollen dann die grafischen Inhalte erstellt und die prototypische Anwendung mit Inhalten gefüllt werden.
Zum Abschluss des Projekts wird eine Evaluation durchgeführt, die Erkenntnisse über den Einfluss von Augmented Reality auf die Vermittlung von Wissen liefern soll.
Die Arbeit befasst sich mit atlasbasierter Segmentierung von CT-Datensätzen mit Hilfe von elastischen Registrierungsmethoden. Ziel ist die vollautomatische Segmentierung eines beliebigen Eingabedatensatzes durch Registrierung mit einem vorsegmentierten Referenzdatensatz, dem Atlanten. Ein besonderes Augenmerk liegt dabei auf der Implementierung und Evaluation elastischer Registrierungsverfahren, da rigide Registrierungsmethoden besonders in Bereichen hoher anatomischer Varianzen keine genaue Segmentierung gewährleisten. Im Vordergrund steht zunächst die Generierung zweier Atlanten, die als durchschnittliche Referenzdatensätze Informationen über die anatomische Varianz männlicher und weiblicher Bevölkerungsgruppen enthalten. Weiter werden vier etablierte elastische Registrierungsarten implementiert und im Hinblick auf eine atlasbasierte Segmentierung der wichtigen Organe des menschlichen Torsos evaluiert: BSpline-Registrierung, Demons-Registrierung, Level-Set-Motion-Registrierung und FEM-Registrierung. Robustheit und Genauigkeit der implementierten Verfahren wurden anhand von Lungen- und Abdomendatensätzen sowohl intra- als auch interpatientenspezifisch ausgewertet. Es wird gezeigt, dass vor allem die elastische BSpline-Registrierung hier genauere Segmentierungsergebnisse liefern kann, als es mit einer rigiden Registrierung möglich ist.
Im Rahmen dieser Studienarbeit wurden acht verschiedene Algorithmen unterschiedlichen Umfangs und Komplexität zur Pupillenmittelpunktssuche implementiert und im Vergleich mit dem Originalalgorithmus ausgewertet. Die Berechnung des Hornhautreflektionsmittelpunkts wurde modifiziert, so dass die Helligkeitswerte der Hornhautreflektion bei der Berechnung des Schwerpunkts gewichtet werden. Bei der Auswertung wurde festgestellt, dass drei der acht Algorithmen, der Starburst-Algorithmus für hochauflösende Bilder, Daugmans Algorithmus für Aufnahmen bei sichtbarem Licht und der Average Coordinate Algorithmus von Daunys und Ramanauskas, Mängel in Zusammenhang mit dem gegebenen System aufweisen, so dass diese momentan nicht für die Mittelpunktssuche im Gazetracker geeignet sind. Die restlichen Algorithmen zeigten im grafischen Vergleich ähnlich gute Ergebnisse und wurden im Test verglichen, wobei der Algorithmus von Perez, Garcia, Mendez, Munoz, Pedraza und Sanches und der Algorithmus von Poursaberi und Araabi die besten Ergebnisse aufwiesen in Bezug auf Dichte der Punkte, Fehlerpunkte und Outlier.
Im Laufe der Zeit fallen in einem Unternehmen große Mengen von Daten und Informationen an. Die Daten stehen im Zusammenhang mit unternehmensinternen Vorgängen, mit dem Marktumfeld, in dem das Unternehmen positioniert ist, und auch mit den Wettbewerbern. Sie sind vielfältiger Art, normalerweise inhomogen und aus verteilten Datenquellen zu beziehen. Um in dieser Flut von Daten die Übersicht zu behalten, die Menge an Informationen effektiv für das Unternehmen nutzbar zu machen, vor allem auch nachhaltig für kommende Entscheidungsfindungen, müssen die Daten analysiert und integriert werden. Diese Optimierung der Entscheidungsfindung durch Zugang zu Informationen, deren Analyse und Auswertung wird häufig unter dem Begriff "Business Intelligence" zusammengefasst. Der Wert der vorhandenen Informationen hängt stark von dem erwähnten Zugang und einer ausdrucksstarken Repräsentation ab. RIA-Techniken ermöglichen eine einfache Verfügbarkeit der verarbeiteten Geschäftsdaten über Inter- und Intranet ohne große Anforderungen an ihre Nutzbarkeit zu stellen. Sie bieten zudem spezialisierte leistungsfähige und in großem Maße programmierbare Visualisierungstechniken. Die Diplomarbeit soll zwei Schwerpunkte habe. Zum Einen wird sie sich mit Arten der Informationsvisualisierung im Allgemeinen und deren Eignung für Geschäfsdaten beschäftigen. Der Fokus liegt hierbei auf Daten und Informationen in Management-Informationsberichten. Ziel ist eine Visualisierungsform, die es dem Nutzer ermöglicht, die zu kommunizierenden Informationen effizient auszuwerten. Zum anderen untersucht die Diplomarbeit die Vor- und Nachteile des Einsatzes von RIAs. Der Implementierungsteil umfasst eine RIA als "Proof of Concept", deren Hauptaugenmerk auf eine dynamische Interaktion und optimierte Informationsvisualisierung gerichtet sein soll. Die Diplomarbeit wird bei der Altran CIS in Koblenz durchgeführt.
Taktstraße
(2008)
Eine Taktstraße ermöglicht eine automatisierte Verarbeitung eines Werkstückes mit Hilfe von Förderbändern, Lichtschranken, Schiebern und Bearbeitungsstationen. Für eine vorgegebene Taktstraße wird eine Ansteuerung entwickelt. Dazu wird der Mikrocontroller ATMega16 von Atmel eingesetzt. Ein externer Controller sendet über den TWI-Bus Steuerbefehle an den mit der Taktstraße verbundenen Controller. Um die Taktstraße bedienbar zu machen, wird eine geeignete Platine entworfen sowie eine LCD-Bibliothek als Ausgabe- und Informationsmedium. Die Arbeit umfasst alle für ein Projekt im Rahmen eines Informatikstudiums benötigten Entwicklungsstadien von der Projektplanung über die Aneignung von spezifischem Grundlagenwissen, die Hard- und Softwareentwicklung bis hin zu ausführlichen Entwicklungs- und Testphasen.