Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (273)
- Diplomarbeit (196)
- Masterarbeit (186)
- Studienarbeit (137)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
Sprache
- Deutsch (1131)
- Englisch (530)
- Mehrsprachig (4)
- Spanisch (2)
Volltext vorhanden
- ja (1667) (entfernen)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computersimulation (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (295)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (146)
- Institut für Informatik (143)
- Institut für Management (115)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Das Hauptziel dieser Studienarbeit war die Entwicklung eines Überführungstools, das sowohl den Repository Inhalt eines EA Projektes in einen TGraphen als auch einen TGraphen in ein EA Projekt überführen kann. Außerdem sollte das application programming interface des Enterprise Architects analysiert und beschrieben werden. Diese beiden Ziele konnten erfüllt werden und wurden in den vorherigen Kapiteln beschrieben. Zusätzlich beinhaltet die Studienarbeit noch eine Beschreibung und ein Anwendungsbeispiel zu JGraLab.
Program slicing
(2008)
Im Rahmen dieser Diplomarbeit wird das Dienstmodell für Program Slicing, welches von Hannes Schwarz vorgestellt wurde, zu einem komponentenbasierten Referenztool weiterentwickelt und implementiert. Dieses Referenztool verwendet zum Slicen ein Referenzschema für Programmiersprachen, welches ebenfalls in dieser Arbeit eingeführt wird. Die hier eingesetzten Slicing-Verfahren basieren auf diesem Referenzschema. Somit kann das Referenztool als Grundlage zum Slicen von Quellcode in beliebigen Programmiersprachen genutzt werden, wenn das Referenzschema vorab an die Gegebenheiten dieser Sprachen angepasst wird. Exemplarisch wird in dieser Diplomarbeit ein Program Slicing Tool für C-Quellcode entwickelt. Dieses Slicing Tool basiert auf dem Referenztool, in dem es die einzelnen Komponenten des Referenztools bei Bedarf spezialisiert oder in der ursprünglichen Form übernimmt. Damit das Program Slicing Tool als Referenz gelten kann, wird in dieser Arbeit eine einfache, erweiterbare und komponentenbasierte Architektur entwickelt. Diese entsteht durch den Einsatz aktueller Prinzipien der Softwaretechnik.
In der vorliegenden Arbeit werden verschiedene Ansätze zur Kalibrierung eines optischen Mikroskops behandelt. Dabei werden sowohl State-of-the-Art-Verfahren der Literatur implementiert als auch Verbesserungen an diesen Algorithmen durchgeführt, um die Ergebnisse stabiler und die Kalibrierung flexibler zu gestalten. Hierzu werden Algorithmen entwickelt, die einzelne Parameter der Kalibrierung vorkalibrieren können und somit das Endergebnis der eigentlichen Kalibrierung verbessern. Des weiteren werden diverse Techniken behandelt, die Störungen in den Eingabedaten unterdrücken und dadurch eine korrekte Modellschätzung für die Kalibrierung ermöglichen. Die Algorithmen werden dabei sowohl auf realen als auch auf synthetischen Daten untersucht und miteinander verglichen.
Eine wachsende Werbe- und Informationsflut sowie eine eingeschränkte Kapazität der Informationsaufnahme stellen das Marketing in unserer heutigen Zeit vor eine Herausforderung. Das Marketing ist allgemein für den Erfolg eines Unternehmens von großer Bedeutung. Jedoch dominiert die klassische Marketinglehre, welche die Besonderheiten junger Unternehmen gerade im Hinblick auf deren Marketing unbeachtet lässt. Ein junges Unternehmen mit einer neuen Idee und einem neuen Produkt trifft auf einen bestehenden Markt mit Kunden und bereits etablierten Wettbewerbern. Auf eine Innovation bezogenen Gründungskontext stellt das eine besondere Herausforderung dar.
In der vorliegenden Bachelorarbeit werden zunächst die Teilbereiche der Thematik, das Entrepreneurship und das Marketing thematisiert. Grundlegend ist die Herausarbeitung der besonderen Eigenschaften von jungen Unternehmen, der sogenannten Liabilities. Die Bedeutung des Begriffs des Entrepreneurial Marketing wird durch die detaillierte Betrachtung des engen, wie auch des weiten Begriffsverständnis dargelegt. Anschließend wird durch die Gegenüberstellung der Unterschied zum klassischen Marketing verdeutlicht. Im Rahmen der Literaturanalyse wird der aktuelle Stand der Forschung dargelegt und die praktische Anwendung anhand der zentralen Ansätze näher betrachtet. Zu diesen Ansätzen zählen das Guerilla Marketing, Ambient Marketing, Sensation Marketing, Viral Marketing und das Ambush Marketing. Wie genau das Entrepreneurial Marketing in Form der zentralen Ansätzen konkret in einem Gründungsunternehmen Einsatz findet, wird durch eine qualitative Untersuchung in Form einer Case Study analysiert.
Der Case Study geht hervor, dass durch unkonventionelle Marketingmaßnahmen und einen geringen Mitteleinsatz eine große Wirkung erzielt werden kann. Das Entrepreneurial Marketing bietet demnach eine Alternative zum klassischen Marketing, die den besonderen Eigenschaften eines jungen Gründungsunternehmens Beachtung schenkt. Die vorliegende Arbeit zeigt somit, dass das Entrepreneurial Marketing unter Einsatz der zentralen Ansätze die Schwächen eines jungen Gründungsunternehmens in Stärken verwandelt und zur Überlegenheit gegenüber der Konkurrenz führen kann.
Diese Arbeit schlägt die Benutzung von MSR (Mining Software Repositories) Techniken zum Identifizieren von Software Entwicklern mit exklusiver Fachkenntnis zu spezifischen APIs und Programmierfachgebieten in Software Repositories vor. Ein versuchsweises Tool zum finden solcher “Islands of Knowledge” in Node.js Projekten wird präsentiert und in einer Fallstudie auf 180 npm packages angewandt. Dabei zeigt sich, dass jedes package im Durchschnitt 2,3 Islands of Knowledge hat, was dadurch erklärbar sein könnte, dass npm packages dazu tendieren nur einen einzelnen Hauptcontributor zu haben. In einer Umfrage werden die Verantwortlichen von 50 packages kontaktiert und nach ihrer Meinung zu den Ergebnissen des Tools gefragt. Zusammen mit deren Antworten berichtet diese Arbeit von den Erfahrungen, die mit dem versuchsweisen Tool gemacht wurden, und wie zukünftige Weiterentwicklungen noch bessere Aussagen über die Verteilung von Programmierfachwissen in Entwicklerteams machen könnten.
Die Arbeitsgruppe Echtzeitsysteme an der Universität Koblenz beschäftigt sich seit mehreren Jahren mit der Thematik autonomes und assistiertes Fahren. Eine große Herausforderung stellen in diesem Zusammenhang mehrgliedrige Fahrzeuge dar, deren Steuerung für den Fahrer während der Rückwärtsfahrt sehr anspruchsvoll ist. Um präzise Manöver zu ermöglichen, können elektronische Fahrerassistenzsysteme zum Einsatz kommen. Im Rahmen vorhergehender Arbeiten sind bereits einige Prototypen entstanden, von denen jedoch keiner eine geeignete Lösung für moderne, zweiachsige Anhänger darstellt. Im Rahmen dieser Arbeit wurde ein prototypisches Fahrerassistenzsystem entwickelt, wobei es noch weiterer Forschungs- und Entwicklungsarbeit bedarf, um das System straßentauglich zu machen.
Method development for the quantification of pharmaceuticals in aqueous environmental matrices
(2021)
Als Folge des Weltbevölkerungswachstums und des daraus resultierenden Wassermangels ist das Thema Wasserqualität zunehmend im Fokus der Öffentlichkeit. In diesem Kontext stellen anthropogene organische Stoffe - oft als Mikroschadstoffe bezeichnet - eine Bedrohung für die Wasserressourcen dar. Besonders Pharmazeutika werden aufgrund ihrer permanenten Einleitung, ihres steigenden Verbrauchs und ihrer wirkungsbasierten Strukturen mit besonderer Besorgnis diskutiert. Pharmazeutika werden hauptsächlich über Kläranlagen in die Umwelt eingeleitet, zusammen mit ihren Metaboliten und den vor Ort gebildeten Transformationsprodukten (TPs). Wenn sie die aquatische Umwelt erreichen, verteilen sie sich zwischen den verschiedenen Umweltkompartimenten, insbesondere der Wasserphase, Schwebstoffen (SPM) und Biota. In den letzten Jahrzehnten wurden Pharmazeutika in der Wasserphase umfassend untersucht. Allerdings wurden extrem polare Pharmazeutika aufgrund des Mangels an robusten Analysemethoden nur selten überwacht. Zudem wurden Metaboliten und TPs selten in Routineanalysemethoden einbezogen, obwohl ihre Umweltrelevanz nachgewiesen ist. Darüber hinaus wurden Pharmazeutika nur sporadisch in SPM und Biota untersucht und es fehlen adäquate Multi-Analyt-Methoden, um umfassende Ergebnisse über ihr Vorkommen in diesen Matrices zu erhalten. Die vorliegende Arbeit wird, diese Wissenslücken durch die Entwicklung generischer Multi-Analyt-Methoden zur Bestimmung von Pharmazeutika in der Wasserphase, SPM und Biota geschlossen und das Vorkommen und die Verteilung von Pharmazeutika in diesen Kompartimenten bewertet. Für einen vollständigen Überblick wurde ein besonderer Schwerpunkt auf polare Pharmazeutika, pharmazeutische Metaboliten und TPs gelegt. Insgesamt wurden drei innovative Multi-Analyt-Methoden entwickelt, deren Analyten ein breites Spektrum an physikalisch-chemischen Eigenschaften abdecken. Zuerst wurde eine zuverlässige Multi-Analyt-Methode entwickelt um extrem polare Pharmazeutika, deren Metaboliten und TPs in wässrigen Umweltproben zu untersuchen. Die ausgewählten Analyten deckten einen signifikanten Bereich erhöhter Polarität ab und die Methode ist leicht um weitere Analyten erweiterbar. Diese Vielseitigkeit konnte durch die Verwendung der Gefriertrocknung als Probenvorbereitung und der zwitterionischen Hydrophile Interaktionschromatographie (HILIC) im Gradientenelutionsmodus erreicht werden. Die Eignung der HILIC-Chromatographie zur gleichzeitigen Quantifizierung einer großen Bandbreite von Mikroschadstoffe in wässrigen Umweltproben wurde gründlich untersucht. Es wurde auf mehrere Einschränkungen hingewiesen: eine sehr komplexe und zeitaufwändige Methodenentwicklung, eine sehr hohe Empfindlichkeit hinsichtlich der Änderung des Acetonitril-Wasser-Verhältnisses im Eluenten oder im Verdünnungsmittel und hohe positive Matrixeffekte für bestimmte Analyten. Diese Einschränkungen können jedoch durch die Verwendung eines präzisen Protokolls und entsprechend markierter interner Standards überwunden werden und werden durch die Vorteile von HILIC, die die chromatographische Trennung von extrem polaren Mikroverunreinigungen ermöglicht, überkompensiert. Die Untersuchung von Umweltproben zeigte erhöhte Konzentrationen der Analyten in der Wasserphase. Insbesondere Gabapentin, Metformin, Guanylharnstoff und Oxypurinol wurden bei Konzentrationen im µg/LBereich im Oberflächenwasser gemessen. Für die Bestimmung von 57 Pharmazeutika und 47 Metaboliten und TPs, die an SPM sorbiert sind, wurde anschließend eine verlässliche Multi-Analyt-Methode etabliert, die eine Quantifizierung bis in den niedrigen ng/g-Bereich erlaubt. Diese Methode wurde konzipiert, um einen großen Polaritätsbereich abzudecken, insbesondere unter Einbeziehung extrem polarer Pharmazeutika. Das Extraktionsverfahren basierte auf einer Druckflüssigkeitsextraktion (PLE), gefolgt von einer Reinigung durch Lösungsmittelaustausch und Detektion durch direkte Injektion-Umkehrphasen-LCMS/MS und Gefriertrocknung-HILIC-MS/MS. Das Sorptionspotential der Pharmazeutika wurde anhand von Laborexperimenten untersucht. Abgeleitete Verteilungskoeffizienten Kd variierten um fünf Größenordnungen unter den Analyten und bestätigten ein hohes Sorptionspotential für positiv geladene und unpolare Pharmazeutika. Das Vorkommen von Pharmazeutika in SPM deutscher Flüsse wurde durch die Untersuchung jährlicher Mischproben bewertet, die zwischen 2005 und 2015 an vier Standorten am Rhein und einem Standort an der Saar entnommen wurden. Dabei zeigte sich das ubiquitäre Vorkommen von an SPM sorbierten Pharmazeutika in diesen Flüssen. Insbesondere positiv geladene Analyten, auch sehr polare und unpolare Pharmazeutika zeigten nennenswerte Konzentrationen. Für viele Pharmazeutika wurde eine deutliche Korrelation zwischen den jährlich in Deutschland konsumierten Mengen und den in SPM gemessenen Konzentrationen festgestellt. Untersuchungen der zusammengesetzten räumlichen Verteilung von SPM erlaubten es, durch den Vergleich der Verschmutzungsmuster entlang des Flusses Hinweise auf spezifische industrielle Einleitungen zu erhalten. Diese Ergebnisse zeigten zum ersten Mal das Potential von SPM für die Überwachung von positiv geladenen und unpolaren Pharmazeutika in Oberflächengewässern. Für Pharmazeutika mit erhöhter Sorptionsaffinität (Kd uber 500 L/kg) erlauben SPM-Analysen sogar die Überwachung niedrigerer Emissionen. Schließlich wurde eine zuverlässige und generische Multi-Analyt-Methode zur Untersuchung von 35 Pharmazeutika und 28 Metaboliten und TPs in Fischplasma, Fischleber und Fischfilet entwickelt. Für diese Matrix war es eine große Herausforderung eine adäquate Aufreinigung zu entwickeln, die eine ausreichende Trennung der störenden Matrix von den Analyten ermöglicht. Bei der endgültigen Methode wurde die Extraktion von Fischgewebe durch Zellaufschluss durchgeführt, gefolgt von einem nicht diskriminierenden Clean-up auf der Basis von Kieselgel-Festphasenextraktion (SPE) und Materialien mit eingeschränkter Zugänglichkeit (RAM). Die Anwendung der entwickelten Methode auf die Messung von Brassen- und Karpfengeweben aus deutschen Flüssen zeigte, dass selbst polare Mikroverunreinigungen wie z.B. Pharmazeutika in Fischgeweben ubiquitär vorhanden sind. Insgesamt wurden 17 Analyten zum ersten Mal in Fischgewebe nachgewiesen, darunter 10 Metaboliten/TPs. Die Bedeutung der Überwachung von Metaboliten und TPs in Fischgeweben wurde durch deren Nachweis in ähnlichen Konzentrationen wie bei ihren Ausgangsstoffe bestätigt. Es zeigte sich, dass Leber und Filet für die Überwachung von Pharmazeutika in Fischen geeignet ¨ sind, während Plasma aufgrund sehr niedriger Konzentrationen und erschwerter Probenahme ungeeignet ist. Erhöhte Konzentrationen bestimmter Metaboliten deuten auf eine mögliche Bildung menschlicher Metaboliten in Fischen hin. Die gemessenen Konzentrationen weisen jedoch auf ein geringes Bioakkumulationspotential für Pharmazeutika in Fischgeweben hin.
Studien zeigen einen hohen Anteil an gut ausgebildeten Frauen, auch weisen Untersuchungen über die Führungskompetenz mehr führungsstarke Frauen (jede 12.) als Männer (jeder 17.) auf. Diese Ergebnisse spiegeln sich jedoch nicht in der nur geringen Anzahl von Frauen in höheren Führungspositionen wieder, mit der Folge, dass diese Ressource damit ungenutzt bleibt. Wenn Mitarbeitende aber als bedeutsam für den Unternehmenserfolg angesehen werden, dann sollten ein optimaler Einsatz und eine bestmögliche Entwicklung selbstverständlich sein. Dieser Aspekt findet sich auch in der Politik zur Gleichbehandlung der Geschlechter wieder. Organisationen vernachlässigen Potential, wenn sie Frauen, die gut ausgebildet sind, nicht die Möglichkeiten geben, beruflich aufzusteigen. Gerade in der Sozialen Arbeit ist der Anteil der Frauen sehr hoch, dennoch kehrt sich diese Verhältnismäßigkeit, vor allem bei den höheren Führungspositionen wie Vorstände, Geschäftsführungen, Aufsichtsgremien, um. Im Rahmen der vorliegenden Dissertation werden förderliche und hemmende Faktoren im Erreichen einer Leitungsposition von Frauen analysiert. Der besondere Fokus ist dabei auf die obere Führungsebene in Organisationen der Sozialen Arbeit gerichtet, im Besonderen auf die Freie Wohlfahrtspflege. Ziel ist darüber hinaus die Darstellung von Handlungsimplikationen zur Förderung weiblicher Karrieren in der Sozialen Arbeit, als Beitrag zur besseren Nutzung weiblichen Know-Hows. Die Arbeit berücksichtigt dabei sowohl die Sicht von Frauen in Führungspositionen, als auch die Sicht von Personalentscheiderinnen und -entscheidern und leistet einen Beitrag dazu, wie Frauen in Verbänden und Organisationen der Freien Wohlfahrtspflege der Zugang zu Führungspositionen ermöglicht werden kann. Die hieraus resultierenden Leitfragen sind: Welche biografischen und institutionellen Faktoren fördern und hemmen den Aufstieg weiblicher Führungskräfte in die obere Führungsebene? Welche Faktoren zeigen sich aus Sicht der Frauen, welche aus Sicht der Personalentscheiderinnen und -entscheider? Welche Lösungswege ergeben sich zur Anhebung des Frauenanteils in der oberen Führungsebene? In der theoretischen Ausarbeitung werden zunächst im Rahmen des ersten Themenkomplexes Frauen und Führung bspw. geschlechtsspezifische Aspekte von Führungsverhalten besprochen, Bezug nehmende Ergebnisse der Führungsforschung sowie der Frauen- und Geschlechterforschung aufgezeigt und berufliche Situationen und Karrieren von Frauen dargestellt. Einfluss- und Erfolgsfaktoren weiblicher Karrieren, mögliche Aufstiegsbarrieren (biografisch konstruiert, gesellschaftlich sozialisiert, organisationsstrukturell) und Strategien zur Realisierung von Chancengleichheit im Aufstieg werden beschrieben. Der erste Themenkomplex endet mit der analytischen Betrachtung des Nutzens dieser Chancengleichheit. Der zweite Themenkomplex geht konkret auf den Bereich Soziale Arbeit ein, beleuchtet den Begriff Frauenberuf, die berufliche Situation von Frauen in der Sozialen Arbeit, die Freie Wohlfahrtspflege, das hier vorherrschende Verständnis von Führung und geht im Abschluss auf Frauen in Führungspositionen in der Sozialen Arbeit ein. Neben Faktoren, die Frauen möglicherweise einen Führungsaufstieg erschweren, werden auch Möglichkeiten von Organisationen bei der Unterstützung von Karrieren der Frauen beleuchtet. Die Untersuchung legt ihren Schwerpunkt auf die Organisationen der Sozialen Arbeit und die Führungspositionen des oberen Managements. Im sich anschließenden empirischen Teil erfolgt daher die Darstellung des Forschungsprojekts und des Forschungssettings, der Forschungsergebnisse, als auch der daraus abgeleiteten Schlussfolgerungen.
Die Computergrafik befasst sich mit der Erzeugung von virtuellen Bildern. Im Bereich der 3D-Computergrafik werden die dargestellten Objekte im dreidimensionalen Raum beschrieben. Dazu bedient man sich diverser Generierungsverfahren. Einer dieser so genannten Renderer ist das Raytracing-Verfahren. Es erfreut sich in der Computergrafik wegen der erreichten Bildqualität bei ueberschaubarer Komplexität großer Beliebtheit. Dabei wird versucht, immer realistischere Ergebnisse zu erreichen. In der Vergangenheit wurde Raytracing deswegen beispielsweise um globale Beleuchtungsmodelle oder um reflektierende beziehungsweise um transparente Objekte erweitert. Dabei wurde aber ein wichtiger Punkt häufig vernachlässigt, welcher ebenfalls den Grad an Realismus deutlich erhöhen kann: die Kamera. Meistens geht man auch heutzutage von einem vereinfachten Lochkameramodell aus. Aus diesem Grund genügen solche Modelle nicht den Ansprüchen physikalisch-korrekter Renderingverfahren. Eine wirklich umfassend korrekte Abbildung von Szenen darf also nicht vernachlässigen, dass ein generiertes Bild durch ein Linsensystem noch einmal entscheidend beeinflusst wird. In dieser Arbeit wird deswegen ein physikalisch korrektes Kameramodell vorgestellt, welches die geometrischen Eigenschaften des Linsensystems berücksichtigt und die Belichtung auf der Bildebene korrekt berechnet.