Filtern
Erscheinungsjahr
- 2015 (18) (entfernen)
Dokumenttyp
- Masterarbeit (18) (entfernen)
Schlagworte
- 360 Grad (1)
- 360 degree (1)
- API analysis (1)
- API-Analyse (1)
- Adhäsion (1)
- Augmented Reality (1)
- Ausrichtungswerkzeug (1)
- Austenitischer Stahl (1)
- Bakterien (1)
- Biofilm (1)
- Biofouling (1)
- Bioreaktor (1)
- Developer profiling (1)
- Dokumentation (1)
- Entwickler Profil (1)
- Epifluoreszenzmikroskopie (1)
- Eyetracking (1)
- Fahrerassistenzsystem (1)
- Feature Modeling (1)
- Folie (1)
- GMI-Controlling (1)
- Geschäftsmodellinnovation (1)
- Herausforderung (1)
- Kunststoff (1)
- Mikroskopie (1)
- Mitral Valve (1)
- Mitralklappe (1)
- Motivation (1)
- Polymere (1)
- Raman-Spektroskopie (1)
- Reverse Engineering (1)
- Segmentation (1)
- Segmentierung (1)
- Software (1)
- Software Engineering (1)
- Softwaretest (1)
- Spaß (1)
- Spektroskopie (1)
- Testen (1)
- Tracking (1)
- Ultraschall (1)
- Ultrasound (1)
- WEB (1)
- Wärme (1)
- adhesion (1)
- bacteria (1)
- biofilm (1)
- biomass (1)
- bioreactor (1)
- computer games (1)
- flow (1)
- functional web testing tools (1)
- heat exchanger (1)
- polymer films (1)
- stainless steel (1)
- surface energy (1)
- surface roughness (1)
Institut
Diese Arbeit analysiert die Möglichkeiten der Text- und Netzwerkanalyse kriminologischer Daten. Dabei werden diese Daten unter dem Aspekt der Geldwäsche betrachtet. Zum Zweck der Analyse wurden aus dem Text die wichtigsten Konzepte in elf verschiedene Klassen aufgeteilt. Die Zusammenhänge zwischen den identifizierten Konzepten wurden ebenfalls untersucht. Einige Aussagen über Geldwäsche lassen sich durch die Interpretation der Ergebnisse validieren. Es werden bestimmte Konzepte, wie Banken, Unternehmen und ausländische Tochtergesellschaften als wichtige Konzepte identifiziert. Das bestätigt zusammen mit dem in Kapitel 1.4.3 dargestellten zyklischen Ablauf von Geldwäschevorgängen die Vermutung, dass bestimmte Organisationen und Personen, innerhalb des betrachteten Falles, Gelder über Banken, Gesellschaften und Investitionen in den legalen Finanzmarkt einfließen lassen. Ebenfalls wird innerhalb dieser Arbeit der Nutzen der betrachteten Tools für den hier zugrundeliegenden Forschungsprozess analysiert und eine Einschätzung der Eignung von ORA und Automap für diese Art von Forschung geliefert.
In dieser Arbeit beschäftigen wir uns mit der Frage, ob die empfundene Herausforderung, der Flow-Zustand und der Spielspaß in Computerspielen miteinander zusammenhängen und welchen Einfluss die motivationspsychologischen Komponenten Erfolgsmotivation, Misserfolgsmotivation und Erfolgswahrscheinlichkeit dabei haben. Außerdem wollen wir wissen, ob eine freie Wahl des Schwierigkeitsgrads der optimale Weg zum Flow-Zustand ist. Um diese Theorien zu untersuchen, wurde eine Studie anhand einer Online-Umfrage durchgeführt, in welcher die Probanden das Spiel “flOw“ spielten. Die Ergebnisse wurden ausgewertet mithilfe einer zweifaktoriellen Varianzanalyse mit Messwiederholung und Tests auf Korrelation. Dabei fanden wir heraus, dass tatsächlich ein Zusammenhang zwischen Herausforderung, Flow und Spaß existiert und die Motivation dabei indirekt eine Rolle spielt.
Im Rahmen dieser Arbeit wird untersucht, wie sich Modellfehler auf die Positionsgenauigkeit und Handhabbarkeit beim Rangieren mit einem Fahrerassistenzsystem auswirken. Besonderer Wert wird dabei auf die Bestimmung von Fehlergrenzen gelegt. Es wird der Frage nachgegangen, wie groß der Eingangsfehler sein darf, damit die Assistenz noch hinreichende Qualitätseigenschaften hinsichtlich ihrer Präzision und Robustheit aufweist. Dazu erfolgt zunächst eine quantitative Betrachtung der Fehler anhand des kinematischen Modells. Danach wird eine qualitative Betrachtung anhand von systematischen Experimenten durchgeführt. Es wird zunächst ein Controller entwickelt, mit dem sich ein Manöver mithilfe der visuellen Informationen der Assistenz simulieren lässt.
Dann wird eine Methode vorgestellt, mit deren Hilfe man das Manöver anhand definierter Fehlergrenzen bewerten kann. Um einen großen Raum möglicher Fehlerkombinationen effizient zu durchsuchen, wird das probabilistische Verfahren des Annealed Particle Filters benutzt. Mithilfe einer Testumgebung werden schließlich systematische Experimente durchgeführt. Zur weiteren Evaluation des Assistenzsystems in einer kontrollierten Umgebung erfolgte in Zusammenarbeit mit dem Fraunhofer ITWM in Kaiserslautern die Portierung des Assistenzsystems auf die dortige Simulationsumgebung RODOS.
Wärmeübertrager werden zur Aufkonzentrierung verschiedener flüssiger Produkte, zur Entsalzung von Meerwasser, aber auch als Kühlelemente in technischen Anlagen eingesetzt. Dabei kommen die Verdampfelemente nicht nur mit Prozesswasser, sondern, gerade bei der Meerwasserentsalzung, auch mit Mikroorganismen in Kontakt.
Klassische Wärmeübertrager bestehen aus Stahl. Nach einer Betriebszeit von mehr als 2 Jahren ist das Material starkem Biofouling ausgesetzt. Durch die Besiedlung mit Mikroorganismen und die Bildung der gelartigen Biofilmmatrix verlieren Wärmeübertrager ihre Effizienz und erzeugen zusätzliche Kosten. Die Reinigung eines Wärmeübertragers ist üblicherweise aufwendig. Dafür wird der Wärmeübertrager, nach Außerbetriebnahme, komplett demontiert.
Mogha et al. 2014 stellen in ihrer Studie die These auf, dass die Initialbesiedlung von Materialien durch veränderte Oberflächenparameter verlängert wird. Dies verzögert die Entstehung von Biofouling und minimiert den Einsatz von Desinfektionsmitteln und green chemicals stark.
Kunststofffolien als alternativer Werkstoff für den Einsatz im wärmeübertragenden Element haben durch ihre niedrigen Produktionskosten, leichte Verfügbarkeit und höhere Korrosionsbeständigkeit als Stahl das Potential, die Kosten für Stilllegung, Reinigung und Effizienzverlust zu reduzieren. Dabei sollen die dünnen Folien komplett ausgetauscht werden, wenn der Wirkungsgrad abnimmt. Schwankenden Stahlpreisen und langen Stillstandszeiten könnte ausgewichen werden. Zur zielgerichteten Untersuchung der mikrobiologischen und verfahrenstechnischen Herausforderungen des Projekts besteht eine Kooperation zwischen dem Lehrstuhl für Thermische Verfahrenstechnik (TU Kaiserslautern) und der AG Mikrobiologie (Universität Koblenz-Landau).
Ziel dieser Arbeit ist die Konstruktion und Herstellung eines Reaktors zur Exposition der Kunststofffolien nach realem Vorbild, die Erstellung eines Untersuchungsdesigns und die experimentelle Untersuchung verschiedener Kunststofffolien auf Biofouling im Vergleich zu austenitischen Stahlfolien.
Die Hauptaufgabe dieser Arbeit war der Entwurf und die Konstruktion eines Reaktors, dessen Prozessparameter vergleichbar mit realen Wärmeübertragungsanlagen und kostengünstiger als kommerzielle Systeme (~1000$) sind. Für eine positive Zielerreichung wurden folgende Kriterien umgesetzt: Vergleichbare Prozessparameter zu realen Anlagen bereitstellen, kostengünstige, schnelle Konstruktion und serienreife Produktion ermöglichen, schnelle Online-in-situ Mikroskopie sowie Online-3D-Konfokale-Ramanspektroskopie ermöglichen, reproduzierbare Ergebnisse von Zellzahl- und Biomassebestimmung erzeugen und eine möglichst große Anzahl an Untersuchungs-parallelen bereitstellen.
Da die Bestimmung von Biomasse und Zellzahl ein Standardwerkzeug zur Bestimmung von Biofouling darstellt, bilden epifluorenszenzmikroskopische und gravimetrische Verfahren die Grundlage dieser Arbeit. Die Unterschiede in Zellzahl und Biomasse zwischen Oberflächenmodifikation und Werkstoff werden quantitativ dargestellt und ausgewertet.
Um die reale biologische Relevanz der Daten herauszustellen, wurde als Modellorganismus das Bakterium Escherichia coli K12 sowie als natürliches Inokulum Flusswasser aus dem Rhein untersucht. Die damit erzeugten Daten zum Biofouling durch Umweltmedien unbekannter mikrobieller Zusammensetzung und einem Laboransatz mit definierter biologischer Zusammensetzung sind für die Beschreibung der technischen Relevanz wesentlich.
Die materialwissenschaftlichen Parameter Oberflächenenergie (DIN 55660) und Oberflächenrauigkeit (DIN EN ISO 4287) sind der erste Kontaktpunkt zwischen Materialoberfläche und Mikroorganismus. Deren Bestimmung und Korrelation mit der Biomasse und der bakteriellen Zellzahl dient als basale Verknüpfung zwischen dem Biofoulingverhalten als biologisch induziertem Prozess und den Materialeigenschaften. Darauf basierend können zukünftig definierte Materialeigenschaften zur Zielerreichung festgelegt werden.
Der in dieser Arbeit exemplarisch gezeigte Einsatz der Raman-Spektroskopie als neuartiger "cutting-edge" Methode gibt einen Ausblick auf zukünftige Untersuchungsmöglichkeiten zur routinemäßigen Erfassung des Biofouling-Verhaltens neuer, funktional optimierter Materialien.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.
In der Forschung der autonomen mobilen Roboter ist besonders die Pfadplanung immer noch ein sehr aktuelles Thema.
Diese Masterabeit befasst sich mit verschiedenen Pfadplanungsalgorithmen zur Navigation solcher mobilen Systeme. Hierbei ist nicht nur eine kollisionsfreie Trajektorie von einem Punkt zu einem anderen zu ermitteln, sondern sollte diese auch noch möglichst optimal sein und alle Fahrzeug-gegebenen Einschränkungen einhalten. Besonders die autonome Fahrt in unbekannter dynamischer Umgebung stellt eine große Herausforderung dar, da hier eine geschlossene Regelung notwendig ist und dem Planer somit eine gewisse Dynamik abverlangt wird.
In dieser Arbeit werden zwei Arten von Algorithmen vorgestellt. Zum einen die Pfadplaner, welche auf dem A* aufbauen, der im eigentlichen Sinne ein Graphsuchalgorithmus ist: A*, Anytime Repairing A*, Lifelong Planning A*, D* Lite, Field D*, hybrid A*. Zum anderen die Algorithmen, welche auf dem probabilistischen Planungsalgorithmus Rapidly-exploring Random Tree basieren (RRT, RRT*, Lifelong Planning RRT*), sowie einige Erweiterungen und Heuristiken. Außerdem werden Methoden zur Kollisionsvermeidung und Pfadglättung vorgestellt. Abschließend findet eine Evaluation der verschiedenen Algorithmen statt.
Der seit Jahren anhaltende Hype um das mobile Internet und der damit verbundenen Technologie der mobilen Anwendungsprogramme scheint nicht abzureißen. Das enorme ökonomische Potential dieses Markts treibt die Wirtschaft stetig zu neuen Ideen der Monetarisierung. Die Ursachen dieses Phänomens werden jedoch selten hinterfragt. Auch hat die wissenschaftliche Forschung auf dem Gebiet des "Mobilseins" bisher kein einheitliches Bild über die Ursachen und Wirkungsketten entwickelt. Versuche des Ableitens von Zusammenhängen durch Studien an artverwandten Medien, wie z.B. dem Computer oder dem stationären Internet, werden kontrovers diskutiert. Durch eine Verknüpfung der Forschungsströme der Mediennutzungsmotive und der Kundenbindung wird die Arbeit ein neues Untersuchungsmodell vorstellen. Anhand der Ergebnisse einer durchgeführten, quantitativen Datenerhebung wird gezeigt, dass die Motive nach Mobilität, nach Beschaffung von Informationen und nach Unterhaltung die bedeutsamsten Treiber von Kundenzufriedenheit bei mobilen Applikationen darstellen. Auch wird gezeigt, dass zwischen der Kundenzufriedenheit und den weiteren Determinanten der Kundenbindung eine signifikante Korrelation besteht.
Die Mitralklappe ist eine der vier Herzklappen des Menschen und in der linken Herzkammer zu finden. Ihre Funktion ist es, den Blutfluss vom linken Atrium zum linken Ventrikel zu regeln. Pathologien können zu eingeschränker Funktionalität der Klappe führen, sodass Blut zurück ins Atrium fließen kann. Patienten, die von einer Fehlfunktion betroffen sind, leiden möglicherweise an Erschöpfung und Schmerzen in der Brust. Die Funktionalität kann chirurgisch wiederhergestellt werden, was meist ein langer und anstrengender Eingriff ist. Eine gründliche Planung ist daher nötig, um eine sichere und effektive Operation zu garantieren. Dies kann durch prä-operative Segmentierungen der Mitralklappe unterstützt werden. Eine post-operative Analyse kann den Erfolg eines Eingriffs feststellen. Diese Arbeit wird bestehende und neue Ideen zu einem neuen Ansatz kombinieren, der zur (semi-)automatischen Erstellung solcher Mitralmodelle dienen kann. Der manuelle Anteil garantiert ein Modell hoher Qualität, während der automatische Teil dazu beiträgt, wertvolle Arbeitszeit zu sparen.
Die Hauptbeiträge des automatischen Algorithmus sind eine ungefähre semantische Trennung der beiden Mitralsegel und ein Optimierungsprozess, der in der Lage ist, eine Koaptations-Linie und -Fläche zwischen den Segeln zu finden. Die Methode kann eine vollautomatische Segmentierung der Mitralsegel durchführen, wenn der Annulusring bereits gegeben ist. Die Zwischenschritte dieses Vorgangs werden in eine manuelle Segmentierungsmethode integriert, so dass ein Benutzer den Gesamtprozess beeinflussen kann. Die Qualität der generierten Mitralmodelle wird durch das Vergleichen mit vollständig manuell erstellten Modellen gemessen. Dies wird zeigen, dass übliche Methoden zur Bestimmung der Qualität einer Segmentierung zu allgemein gefasst sind und nicht ausreichen, um die echte Qualität eines Modells widerspiegeln zu können. Folglich führt diese Arbeit Messungen ein, die in der Lage sind, eine Segmentierung der Mitralklappe detailliert und unter Betracht anatomischer Landmarken bewerten zu können. Neben der intra-operativen Unterstützung eines Chirurgen liefert eine segmentierte Mitralklappe weitere Vorteile. Die Möglichkeit, die Anatomie einer Klappe patientenspezifisch aufzunehmen und objektiv zu bewerten, könnte als Grundlage für zukünftige medizinische Forschung in diesem Bereich dienen. Die Automatisierung erlaubt dabei das Bearbeiten großer Datenmengen mit reduzierter Abhängigkeit von Experten. Desweiteren könnten Simulationsmethoden, welche ein segmentiertes Modell als Eingabe nutzen, das Ergebnis einer Operation vorhersagen.
Geographisches Cluster-basiertes Routing ist ein aktueller Ansatz, wenn es um das Entwicklen von effizienten Routingalgorithmen für drahtlose ad-hoc Netzwerke geht. Es gibt bereits eine Anzahl an Algorithmen, die Nachrichten nur auf Basis von Positionsinformationen durch ein drahtloses ad-hoc Netzwerk routen können. Darunter befinden sich sowohl Algorithmen, die auf das klassische Beaconing setzen, als auch Algorithmen, die beaconlos arbeiten (keine Informationen über die Umgebung werden benötigt, außer der eigenen Position und der Position des Ziels). Geographisches Routing mit Auslieferungsgarantie kann auch auf Overlay-Graphen durchgeführt werden. Bisher werden die dafür benötigten Overlay-Graphen nicht reaktiv konstruiert.
In dieser Arbeit wird ein reaktiver Algorithmus, der Beaconless Cluster Based Planarization Algorithmus (BCBP), für die Konstruktion eines planaren Overlay-Graphen vorgestellt, der die benötigte Anzahl an Nachrichten für die Konstruktion eines planaren Overlay-Graphen, und demzufolge auch Cluster-basiertes geographishes Routing, deutlich reduziert. Basierend auf einem Algorithmus für Cluster-basierte Planarisierung, konstruiert er beaconlos einen planaren Overlay-Graphen in einem unit disk graph (UDG). Ein UDG ist ein Modell für ein drahtloses Netzwerk, bei dem alle Teilnehmer den gleichen Senderadius haben.
Die Evaluierung des Algorithmus zeigt, dass er wesentlich effizienter ist als die Baecon-basierte Variante. Ein weiteres Ergebnis dieser Arbeit ist ein weiterer beaconloser Algorithmus (Beaconless LLRAP (BLLRAP)), für\r\nden zwar die Planarität, aber nicht die Konnektivität nachgewiesen werden konnte.
Diese Masterarbeit behandelt den Themenbereich des interkulturellen Webdesigns im Internet. Dabei werden exemplarisch zwei an dieselbe Zielgruppe gerichtete Webseiten aus verschiedenen Ländern miteinander verglichen. Anhand von Kulturdimensionen werden kulturelle Unterschiede auf der jeweiligen Webseite aufgezeigt. Bei der Internetseiten-Analyse wird insbesondere auf die Frage eingegangen, wie ausführlich sich die jeweiligen Webseitengestalter und -betreiber Gedanken über kulturelle Unterschiede ihrer Nutzer/-innen und die Erzeugung eines entsprechenden interkulturellen Webdesigns gemacht haben. Die Analyse zeigt auf, auf welche kulturellen und insbesondere interkulturellen Aspekte der Länder bei der Webseitengestaltung Rücksicht genommen wird. Da hierbei im Rahmen der durchgeführten Untersuchung festgestellt wurde, dass die Umsetzung des interkulturellen Webdesigns nicht konsequent in der Gesamtheit der Webseite erfolgt, werden konkrete Vorschläge zu möglichen Verbesserungen aufgezeigt.