Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
- Buch (Monographie) (5)
- Habilitation (5)
- (1)
- Vorlesung (1)
- Preprint (1)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
Die Instandhaltungsstrategie Predictive Maintenance, welche sich durch das Treffen von Vorhersagen zum Ausfallverhalten technischer Einheiten auf Basis von moderner Sensortechnik auszeichnet, nimmt vor dem Hintergrund einer Industrie 4.0 eine Schlüsselrolle in Smart Factories ein. In der vorliegenden Arbeit wird der gegenwärtige Forschungsstand zur Strategie evaluiert und ein Überblick der bisherigen Einsatzgebiete gegeben. Mithilfe einer qualitativen Videoanalyse wird die Realisierung in den involvierten Branchen und Unternehmensbereichen sowie die Art der überwachten Güter untersucht. Die analysierten Videoclips wurden von verschiedenen Unternehmen, welche unterschiedliche Blickwinkel auf Predictive Maintenance einnehmen, auf der Plattform YouTube beispielsweise zu Marketingzwecken hochgeladen. Anhand eines vorab festgelegten Kodierplans wurde im Rahmen der Videoanalyse die Kodierung des Videomaterials vorgenommen. Die Ergebnisse zeigen eine überwiegende Anwendung im produzierenden Gewerbe, in dem Predictive Maintenance zur Überwachung von Anlagen und Maschinen, welche an den Produktionsprozessen beteiligt sind, eingesetzt wird. Zudem wird die Strategie in hohem Maße zur Überwachung von Verkehrsmitteln eingesetzt, welche der Güter- und Personenbeförderung auf verschiedenen Verkehrswegen dienen. Resultierend aus der Videoanalyse wird der gegenwärtig hohe Erklärungsbedarf zu Predictive Maintenance sichtbar. Durch die Betrachtung dieser Erklärungen lassen sich die Besonderheiten in Abgrenzung zu anderen Instandhaltungsstrategien erkennen.
Railway safety is a topic which gains the public attention only if major railway accidents happen. This is because railway is considered as a safe mode of travel by the public. However, to ensure the safety of the railway system railway companies as well as universities conduct a broad spectrum of research. An overview of this research has not yet been provided in the scholarly literature. Therefore, this thesis follows two objectives. First an overview and ranking of railway safety research universities should be provided. Second, based on these universities, it should be identified which are the most relevant and influential research topics. The ranking is based on the research method “literature review” which forms the methodical basis for this thesis. To evaluate the universities based on a measurable and objective criterion, the number of citations of the researchers from each university is gathered. As a result, the University of Leuven for the civil engineering, Milan Politechnico for mechanical enginering and the University of Loughborough for electrical engineering are identified as the leading university in their field of railway safety research. The top universities for each discipline are distributed all over Europe, North America and Asia. However, a clear focus on the US and British universities is observed. For identification of the most relevant and influential topics the keywords from the publications which are considered in the ranking procedure are analyzed. Focus areas among these keywords are revealed by calculating the count of each keyword. High-speed trains as well as maintenance are recognized as the highly relevant topics in both civil and mechanical engineering. Furthermore, the topic of railway dynamics for mechanical engineering and noise and vibration for civil engineering are identified as the leading topics in the respective discipline. Achieving both research goals required exploratory approaches. Therefore, this thesis leaves open space for future research to deepen the individual topics which are approached in each section. A validation of the results through experts interviews as well as a deepening of the analysis through increasing the number of analyzed universities as well as applying statistical methods is recommended.
Spektroskopie zweiatomiger Moleküle bei Einstrahlung ultrakurzer Laserpulse und ihre Anwendung
(2020)
Durch die Verwendung ultrakurzer Pulse lassen sich selbst bei moderaten Pulsenergien und Durchschnittsleistungen sehr hohe Spitzenleistungen erreichen, deren Wirkung auf Materie sich grundlegend von der anderer Lichtquellen unterscheidet. Die hohe Feldstärke ist hier nicht nur verantwortlich für das vermehrte Auftreten optisch nichtlinearer Effekte wie der Frequenzverdopplung, sondern ist auch hauptverantwortlich für die ”kalte“ Ablation, die zu deutlich kälteren Plasmen führt. Eine Untersuchung dieser beiden Umstände in Hinblick auf eine Vereinfachung der Pulslängenmessung und eine Verbesserung der Molekülbildung in erkaltenden Plasmen ist Thema dieser Arbeit. In diesem Zusammenhang wird gezeigt, dass die Verwendung von Ultrakurzpulslasern bei der Wahl geeigneter Prozessparameter, insbesondere durch gezielte Defokussierung, die Spektroskopie verschiedener emittierender Moleküle wie Aluminiumoxid verbessert, sodass deren Detektion auch ohne die in der Literatur geforderten zeitauflösenden Messinstrumente möglich ist. Darüber hinaus ermöglichen ultrakurze Pulse eine ortsaufgelöste Kristallisation von Zinkoxid auf – mit einfachen Mitteln präparierten – Zinkoberflächen. Die dabei entstandenen Wurtzite richten ihre c-Achse meist annähernd senkrecht zur darunterliegenden Oberfläche aus und können zur Erzeugung von gestreuter Frequenzverdopplung genutzt werden. Hierfür haben sich besonders die in den letzten Jahren entwickelten faserbasierten Femtosekundenlaser mit Pulsenergien im Mikrojoule-Bereich, Pulslängen von wenigen 100fs und äußerst geringem Wartungsaufwand als ein leistungsfähiges Instrument erwiesen. Die hohe Pulsenergie dieser Systeme erlaubt zudem die Verwendung von Frequenzverdopplern mit deutlich geringeren Konversionsezienzen zur Messung der Pulslänge. Trotz uneinheitlicher Kristallachsen hat sich hier das streuend frequenzverdoppelnde Aluminiumnitrid als besonders tauglich für die optische Autokorrelation herausgestellt. Im Vergleich zum üblicherweise verwendeten monokristallinen Beta-Bariumborat, reduzieren die gesinterten Aluminiumnitrid-Keramikplatten den Justageaufwand, vereinfachen durch ihre Robustheit die Handhabung und verringern den Kostenfaktor um zwei bis drei Größenordnungen. Daher eignet sich das hier entwickelte Verfahren auch für die Kontrolle der Pulslänge während des Fertigungsprozesses eines solchen Systems – besonders dann, wenn hohe bzw. für Beta-Bariumborat zu hohe Pulsenergien auftreten können.
Social-Media Plattformen wie Twitter oder Reddit bieten Nutzern nahezu ohne Beschränkungen die Möglichkeit, ihre Meinungen über aktuelle Ereignisse zu veröffentlichen, diese mit anderen zu teilen und darüber zu diskutieren. Während die Mehrheit der Nutzer diese Plattformen nur als reines Diskussionsportal verwenden, gibt es jedoch Nutzergruppen, welche aktiv und gezielt versuchen, diese veröffentlichten Meinungen in ihrem Sinne zu beeinflussen bzw. zu manipulieren. Durch wiederholtes Verbreiten von bearbeiteten Fake-News oder stark polarisierenden Meinungen im gesamten politischen Spektrum können andere Nutzer beeinflusst, manipuliert und unter Umständen zum Träger von Hassreden und extremen politischen Positionen werden. Viele dieser Nutzergruppen sind vor allem in englischsprachigen Portalen anzutreffen, in denen sie sich überwiegend als Muttersprachler ausgeben. In dieser Arbeit stellen wir eine Methode vor, englische Muttersprachler und Nicht-Muttersprachler, die Englisch als Fremdsprache verwenden, anhand von ausgewählten englischen Social Media Texten zu unterscheiden. Dazu implementieren wir textmerkmalbasierte Modelle, welche für traditionelle Machine-Learning Prozesse und neuartigen AutoML-Pipelines zur Klassifizierung von Texten verwendet werden. Wir klassifizieren dabei Sprachfamilie, Muttersprache und Ursprung eines beliebigen englischen Textes. Die Modelle werden an einem bestehenden Datensatz von Reddit, welcher hauptsächlich aus englischen Texten von europäischen Nutzern besteht, und einem neu erstellten Twitter Datensatz, der Tweets von aktuellen Themen in verschiedenen Ländern enthält, angewandt. Wir evaluieren dabei vergleichsweise die erhaltenen Resultate unserer Pipeline zu traditionellen Maschinenlernprozessen zur Texterkennung anhand von Präzision, Genauigkeit und F1-Maßen der Vorhersagen. Wir vergleichen zudem die Ergebnisse auf Unterschiede der Sprachnutzung auf den unterschiedlichen Plattformen sowie den ausgewählten Themenbereichen. Dabei erzielen wir eine hohe Vorhersagewahrscheinlichkeit für alle gewählten Kategorien des erstellten Twitter Datensatzes und stellen unter anderem eine hohe Abweichung in Bezug auf die durchschnittliche Textlänge insbesondere bei Nutzern aus dem baltoslawischen Sprachraum fest.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Das Ziel der vorliegenden Arbeit ist es, einen Überblick über das Vorgehen, den Aufbau und die Methodenvielfalt im Bereich der Technologiefrüherkennung zu bieten, einen Einblick in das Umfeld der Railways Diagnostics and Monitoring Technologies (RDMT), deren Technologiemanagement und den branchenspezifischen Anforderungen an die Technologiefrüherkennung (insbesondere im Bereich von KMU) zu geben. Kombinierend daraus wird eine Handlungsempfehlung zur konkreten Nutzung der Forschungsergebnisse in Unternehmen dieser Größenordnung und Branche gegeben. Dazu wurden Literaturrecherchen im Bereich des Innovationsmanagements und des Railway Umfelds betrieben und ein Experte eines mittelständigen Technologieherstellers der RDMT-Branche interviewt. Die wichtigste Erkenntnis dabei ist, dass eine einzelne Methode den Anforderungen nicht gerecht wird, und eine Kombination von Methoden und Organisationsformen für eine effektive Technologiefrüherkennung notwendig ist.
Die Forschungsarbeit beschäftigt sich mit der zentralen Frage, welche Erfolgsfaktoren einen Effekt auf eine erfolgreiche Crowdfunding Kampagne haben. Als Untersuchungsfeld stehen deutsche Startup-Unternehmen im Fokus, die bereits erfolgreiche CrowdfundingKampagnen durchgeführt haben.
Zur Beantwortung dieser Frage wird zunächst eine systematische Literaturanalyse durchgeführt, durch die relevante Erfolgsfaktoren für eine Crowdfunding-Kampagne ermittelt werden. Diese Faktoren werden anschließend einem Mixed-Method-Ansatz unterzogen, bei dem qualitative Ergebnisse, basierend auf einer Fallstudienforschung, mit den statistisch ausgewerteten quantitativen Ergebnissen aus der Fragebogenforschung verglichen und überprüft werden. Dabei liegt der Fokus insbesondere auf der Identifikation von signifikanten Wirkungszusammenhängen zwischen den Erfolgsfaktoren und einer erfolgreichen Crowdfunding-Kampagne.
Im Ergebnis konnten diesbezüglich Wirkungszusammenhänge innerhalb dieser Thesis nachgewiesen werden. Sechs der festgestellten Zusammenhänge aus der qualitativen Analyse werden durch die quantitative Analyse bestätigt. Es konnte jedoch keine Signifikanz der Korrelationen festgestellt werden. Auch die Hypothese, dass sich die Erfolgsaussichten einer Kampagne durch eine höhere Anzahl jeweils kombinierter Erfolgsfaktoren erhöhen, wurde sowohl in der qualitativen als auch in der quantitativen Betrachtung widerlegt. Demnach galt es für den Autor der vorliegenden Thesis künftige Forschungsfelder zu definieren, die die ermittelten Ergebnisse erweitern und konkretisieren. Es bleibt beispielsweise einer weiterführenden Forschung überlassen, zu klären, ob bestimmte Kombinationen der Erfolgsfaktoren zu signifikanten Wirkungszusammenhängen führen. Darüber hinaus bietet sich eine weiterführende statistische Regressionsanalyse an, um die kausalen Effekte zu untersuchen und Prognosen für erfolgreiche Crowdfunding-Kampagnen zu formulieren.
Die vorliegende Dissertation beschäftigt sich mit der Anwendung des sogenannten Molekül-LIBS Verfahrens, einem neuartigen Ansatz der Laser-Induced Breakdown Spectroscopy (LIBS), um den Nachweis für Lochkorrosion auslösende Chloride in Betonbauwerken, die z.B. durch Streusalze im Winter eingetragen werden, zu optimieren. Die potentiometrische Titration als Standardverfahren zur Chloridbestimmung in der Baustoffanalytik weist neben einem hohen Kosten- und Zeitaufwand den entscheidenden Mangel auf, dass die Bestimmung der Chloridkonzentration auf die Gesamtmasse des Betons bezogen wird und nicht wie in der europäischen Norm EN 206 gefordert auf den Zementanteil. Die bildgebenden Möglichkeiten von LIBS zur Phasentrennung des Betonserfüllen diese Forderung. LIBS wurde bereits 1998 von der BAM in der Baustoffanalytik eingesetzt, allerdings erfordert der Nachweis von Chloriden mit LIBS eine teure Heliumspülung und Spektrometer außerhalb des sichtbaren Spektralbereichs, um atomare Emissionen von Chlor zu detektieren. Der Ansatz von Molekül-LIBS besteht darin, dass die Emission chloridhaltiger Molekülradikale, die sich in der Abkühlphase des laserinduzierten Plasmas bilden, zur Quantifizierung genutzt werden. Die Vorteile gegenüber dem konventionellen LIBSVerfahren sind die Emission im sichtbaren Spektralbereich und die Anwendbarkeit ohne Edelgasspülung. In dieser Arbeit wird zudem der Einfluss der experimentellen Komponenten auf das Zeitverhalten der relevanten Molekülemissionen untersucht, Signalschwankungen durch Plasmafluktuationen werden deutlich reduziert und für eine umfassende Plasmaanalytik wird die Molekülbildung auf atomistischen Maßstäben simuliert und mit Standardverfahren verglichen. In Simultanmessungen werden atomare und molekulare Cl-Emission direkt verglichen und die Quantifizierung durch Datenzusammenführung optimiert. Molekül-LIBS wird zu einem quantifizierenden und bildgebenden Verfahren erweitert, das Chloride ohne Edelgasspülung detektieren kann.
Da die Belastung von Gewässern mit Mikroorganismen ein Gesundheitsrisiko für den Menschen unter anderem bei dessenFreizeitnutzung birgt, wurde die mikrobielle Belastung der Flüsse Rhein, Mosel und Lahn anhand von Indikatoren für fäkalbürtige bakterielle (Escherichia coli, intestinale Enterkokken) und virale Belastungen (somatische Coliphagen) untersucht. Des Weiteren wurden blaCTX-MGene als Marker für die Verbreitung von Antibiotikaresistenzen in der Lahn quantifiziert. Durch vergleichende Analysen von Monitoringdaten gegensätzlicher Abflussgeschehen in Rhein und Mosel wurde ein Einfluss von Veränderungen klimarelevanter Parameter auf die Verbreitung der fäkalen Indikatororganismen (FIO) geprüft. Die Analysen an Rhein, Mosel und Lahn zeigen deutlich, dass hohe Abflüsse und Niederschläge den Eintrag von FIO und Antibiotikaresistenzgenen (ARG) und damit potentiell antibiotikaresistenter Bakterien in Gewässer begünstigten, während unter dem Einfluss hoher Globalstrahlung und steigenden Wassertemperaturen ein Rückgang zu beobachtenwar. Basierend auf als relevant identifizierten Einflussparametern wurden multiple lineare Regressionsmodelle (MLR Modelle) entwickelt, die eine zeitnahe Vorhersage von FIO Konzentrationen an fünf Stellen eines Lahnabschnitts ermöglichen. Wechselwirkungenzwischen abiotischen und biotischen (Fraßdruck) Faktoren tragen zur Entstehung saisonaler Muster in den FIO Konzentrationenbei. Diese sind unter Niedrigwasserverhältnissen und besonders in Flüssen mit ausgeprägten trophischen Interaktionen besonders deutlich ausgeprägt und beeinflussen eine Übertragbarkeit von Modellansätzen zwischen Flüssen unterschiedlicher biologischer und hydrologischer Charakteristika. Daraus, dass Bakterien davon stärker betroffen sind als Coliphagen, lässt sich schließen, dass bakterielle Indikatoren virale Belastungen nicht ausreichend abbilden. BlaCTX-MGene waren in der Lahn parallel zu den FIO ubiquitär nachzuweisen, was auf einen fäkalen Ursprung hinweist. Landwirtschaft und kommunale Kläranlageneinleiter trugen zur Belastung mit FIO bei. Es zeigte sich, dass auch nicht badende Wassersportler mit eingeschränktem Wasserkontakt nachweislich dem Risiko ausgesetzt waren, antibiotikaresistente Bakterien (ARB) samt ihren Genen zu verschlucken, was das Risiko einer Infektion oder Kolonisierung mit den entsprechenden Bakterien birgt. Da ARG zu großen Teilen durch E. colierklärt werden konnten, könnenARG gegebenenfalls in MLR Modellemit E. colispezifischen Vorhersagevariablenintegriert werden. Kurzeitige und kurzfristig auftretende Verschmutzungsereignisse werden in Zukunft als eine Folge des Klimawandels in ihrer Häufigkeit weiter zunehmen. Identifizierte Herausforderungen hinsichtlich der Implementierung von Frühwarnsystemen zur Bewertung der mikrobiellen Wasserqualität in Flüssen liegen in den Anforderungen der Badegewässerrichtlinie (Richtlinie 2006/7/EC) und in einer unzureichenden Harmonisierung des Rechtsrahmens der Europäischen Union (EU) begründet, um Gesundheitsrisiken aufgrund mikrobieller Belastung in multifunktional genutzten Gewässern angemessen zu begegnen.
"We've allways been in a culture where more is more, and suddenly we're in a culture whrere less is a better quality of life. It's pretty revolutionary." - Bill Stewart
Der Wandel der Gesellschaft brachte innerhalb des vergangenen Jahrzehnts einige Veränderungen mit sich, darunter auch die Tendenz zum bewussteren Konsum sowie nachhaltigeren Umgang mit Ressourcen. Traditionelle Denkmuster rückten immer weiter in den Hintergrund, Stereotypen wurden durchbrochen und die Bewertungsmaßstäbe neu definiert. Und so sind wir in einer Zeit angekommen, in der weniger Besitz plötzlich höheres Ansehen genießt und der Minimalismus zum neuen Trend wurde. Vom Wandel gesellschaftlicher Normen blieb auch der wirtschaftliche Sektor nicht unberührt, und so nahm das Modell der Sharing Economy in den vergangenen Jahren eine rasante Entwicklung auf dem Markt. Vereinfacht kann das Geschäftsmodell als das Teilen ungenutzter Ressourcen gegen (non-) monetäre Anreize beschrieben werden. Die vorliegende Bachelorarbeit untersucht die Anwendbarkeit der Sharing Economy auf den B2B-Sektor. Dabei wurden die Vor- und Nachteile des Geschäftsmodells erfasst und daraus die Barrieren und Chancen der Implementierung für Unternehmen abgeleitet. Ferner wurde untersucht, welche Rahmenbedingungen aus dem Konsumentenbereich sich zur Implementierung im Geschäftsbereich eignen und welche neuen Faktoren berücksichtigt werden müssen.
Hierfür wurde auf Grundlage der Literaturanalyse eine Modellierung des B2C-Konzeptes vorgenommen. Basierend darauf wurden Interviews mit den Führungsmitarbeitern und der Geschäftsführung eines mittelständischen IT-Unternehmens durchgeführt. Nach der an Mayring (2002) angelehnten Auswertung, wurde mithilfe der Ergebnisse ein B2B- sowie ein Entscheidungsmodell aufgestellt und Antworten auf die Forschungsfragen gegeben.
Aus den Interviewergebnissen konnten zahlreiche Voraussetzungen aus dem privaten Sharing-Umfeld auf das B2B-Modell übertragen sowie weitere relevante Faktoren identifiziert werden. Mit Hilfe des Entscheidungsmodells konnte dargestellt werden, unter welchen Rahmenbedingungen eine Umsetzung des Geschäftsmodells im B2BUmfeld sinnvoll wäre und welche Herausforderungen berücksichtigt werden müssen.