Filtern
Erscheinungsjahr
- 2015 (35) (entfernen)
Dokumenttyp
- Dissertation (21)
- Masterarbeit (7)
- Bachelorarbeit (5)
- Konferenzveröffentlichung (1)
- Ausgabe (Heft) zu einer Zeitschrift (1)
Sprache
- Englisch (35) (entfernen)
Schlagworte
- API analysis (1)
- API-Analyse (1)
- AUTOSAR (1)
- Adaptation (1)
- Amazon Mechanical Turks (1)
- Amazonia (1)
- Amazonien (1)
- Anpassung (1)
- Architektur <Informatik> (1)
- Automotive Systems (1)
Institut
- Fachbereich 7 (13)
- Institut für Informatik (7)
- Institut für Computervisualistik (4)
- Institut für Softwaretechnik (3)
- Institut für Wirtschafts- und Verwaltungsinformatik (2)
- Arbeitsbereich Allgemeine und Pädagogische Psychologie (1)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (1)
- Fachbereich 4 (1)
- Fachbereich 5 (1)
- Fachbereich 8 (1)
- Institut für Erziehungswissenschaft (1)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (1)
- Institut für Management (1)
- Mathematisches Institut (1)
Um unterschiedliche Anforderungen zu erfüllen, werden Softwaresysteme oft in Form einer Menge von Varianten entwickelt. Zwei gebräuchliche Ansätze für eine solche Softwareentwicklung sind das clone-and-owning und die Produktlinienentwicklung. Beide Ansätze haben Vor- und Nachteile. In vorheriger Arbeit mit anderen haben wir eine Idee vorgestellt bei der beide Ansätze verknüpft werden um Varianten, Ähnlichkeiten und Softwareklone zu verwalten. Diese Idee basiert auf einer virtuellen Plattform und Operatoren für Softwareklone. In der vorliegenden Arbeit stellen wir einen Ansatz vor um essentielle Metadaten für die Realisierung eines propagate-Operators zu aggregieren. Dafür haben wir ein System entwickelt um Ähnlichkeiten mit Annotationen zu versehen, wobei die Ähnlichkeiten aus der Historie eines Repositories extrahiert werden. Die Annotationen drücken aus wie eine Ähnlichkeit zukünftig gewartet werden soll. Abhängig vom Annotationstyp kann diese Wartung automatisiert ausgeführt oder sie muss vom Benutzer manuell betrieben werden. In dieser Arbeit beschreiben wir die automatisierte Extraktion von Metadaten und das System zur Annotation von Ähnlichkeiten; wir erklären wie das System in den Arbeitsfluss eines bestehenden Programms zur Versionierungverwaltung (Git) integriert werden kann; und abschließend stellen wir eine Fallstudie vor, die das 101haskell-System benutzt.
Die Entwicklung der echtzeitfähigen Computergrafik ermöglicht mittlerweile immer realistischere Bilder und die Hardware kann dafür optimal ausgenutzt werden, wodurch immer glaubwürdigere Lichtverhältnisse simuliert werden können. Eine große Anzahl von Algorithmen, effizient implementiert auf der Grafikkarte (GPU, auch Grafikprozessor)), sind fähig komplexe Lichtsituationen zu simulieren. Effekternwie Schatten, Lichtbrechung und Lichtreflexion können mittlerweile glaubwürdig erzeugt werden. Besonders durch Reflexionen wird der Realismus der Darstellung erhöht, da sie glänzende Materialien, wie z.B. gebürstete Metalle, nasse Oberflächen, insbesondere Pfützen oder polierte Böden, natürlich erscheinen lassen. Dabei geben sie einen Eindruck der Materialeigenschaften, wie Rauheit oder Reflexionsgrad.rnAußerdem können Reflexionen vom Blickpunkt abhängen: Eine verregnete Straße zum Beispiel würde Licht, abhängig von der Entfernung des Betrachters reflektieren und verwaschene Lichtreflexe erzeugen. Je weiter der Betrachter von der Lichtquelle entfernt ist, desto gestreckter erscheinen diese. Ziel dieser Bachelorarbeit ist, eine Übersicht über existierende Render-Techniken für Reflexionen zu geben, um den aktuellen Stand der Technik abzubilden. Reflexion entsteht durch den Einfall von Licht auf Oberflächen, die dieses in eine andere Richtung zurückwerfen. Um dieses Phänomen zu verstehen, wird eine Auffassung von Licht benötigt. Kapitel 2.1 beschreibt daher ein physikalisches Modell von Licht, gefolgt von Kapitel 2.2, das anhand von Beispielen ästhetisch wirkender Reflexionseffekte aus der realenrnWelt und den Medien die Motivation dieser Arbeit darlegt. In Kapitel 3 soll die generelle Vorgehensweise beim Rendern von Reflexionen deutlich gemacht werden. Danach wird in Kapitel 4 eine grobe Übersicht über existierende Ansätze gegeben. In Abschnitt 5 werden dann drei wesentliche Algorithmen vorgestellt, die zur Zeit oft in Spiel- und Grafikengines verwendet werden: Screen Space Reflections (SSR), Parallax-corrected cube mapping (PCCM) und Billboard Reflections (BBR). Diese drei Ansätze wurden zusammen in einem Framework implementiert. Dieses wird in Kapitel 5 vorgestellt und erklärt, gefolgt von detaillierten Beschreibungen der drei Techniken. Nachdem ihre Funktionsweise erklärt wurde, werden die Ansätze analysiert und auf ihre visuelle Qualität sowie ihre Echtzeitfähigkeit getestet. Abschließend werden die einzelnen Verfahren miteinander verglichen, um ihre Vor- und Nachteile zu untersuchen. Außerdem werden die gewonnenen Erfahrungen beschrieben und Verbesserungsansätze vorgeschlagen. Danach wird ein kurzer Ausblick zur voraussichtlichen Entwicklung von Render-Techniken spekularer Effekte gegeben.
Information systems research has started to use crowdsourcing platforms such as Amazon Mechanical Turks (MTurk) for scientific research, recently. In particular, MTurk provides a scalable, cheap work-force that can also be used as a pool of potential respondents for online survey research. In light of the increasing use of crowdsourcing platforms for survey research, the authors aim to contribute to the understanding of its appropriate usage. Therefore, they assess if samples drawn from MTurk deviate from those drawn via conventional online surveys (COS) in terms of answers in relation to relevant e-commerce variables and test the data in a nomological network for assessing differences in effects.
The authors compare responses from 138 MTurk workers with those of 150 German shoppers recruited via COS. The findings indicate, inter alia, that MTurk workers tend to exhibit more positive word-of mouth, perceived risk, customer orientation and commitment to the focal company. The authors discuss the study- results, point to limitations, and provide avenues for further research.
In dieser Arbeit wurde erstmalig das Gebiet der funktionalen, system-level Web Testing Tools analysiert. Aus 194 Toolkandidaten wurden 23 Tools zur Analyse ausgewählt. Die entwickelte Methodik verwendet die Benutzerhandbücher der Tools, um ein Featuremodel zu erzeugen, dass die Features aller Tools abbildet. Insgesamt wurden 313 Features identifiziert, klassifiziert und beschrieben. Die Features wurden in 10 Kategorien unterteilt und werden mit 16 Featurediagrammen dargestellt.rnDie Ergebnisse können technologische Entscheidungsprozesse unterstützen, indem ein Überblick einerseits über die Tools auf dem Markt und andererseits über die neusten Entwicklungen im Bereich des funktionalen, system-level Web Testing bereitgestellt wird.
Die automatische Identifikation von Experten in einer speziellen technologischen Domäne, wie einer Bibliothek, Framework oder generellen Technologie, schafft einen großen Mehrwert in der gemeinsamen Entwicklung von Softwareprojekten. Daher soll in dieser Arbeit ein Vorgehen sowie ein Programm zur automatischen Identifikation von Experten entwickelt werden, die gewissen Skills besitzen. Hierbei wird speziell das Django-Framework betrachtet. Jedoch kann durch hinzufügen von weiteren Regeln unser Tool leicht auf andere Technologien angepasst werden. Abschließend wird eine case study auf ein Open Source Projekt durchgeführt.
Der zunehmende Einsatz von Titandioxid-Nanopartikeln (nTiO2) birgt das Risiko eines erhöhten Eintrags in Oberflächengewässer, wo diese mit weiteren anthropogenen Stressoren (z.B. Schwermetalle) vorkommen können. Das gemeinsame Auftreten ermöglicht die Adsorption von Schwermetallen an nTiO2, welche aufgrund ihrer Agglomeration häufig aussedimentieren. Somit können Nanopartikel mit den adsorbierten Metallionen potentiell für pelagische aber auch benthische Organismen ein Risiko darstellen. Die kombinierte Toxizität von nTiO2 und Schwermetallen wird vermutlich durch die Eigenschaften der Stressoren, aber auch durch verschiedene Umweltparameter (z.B. organisches Material, pH, Ionenstärke) bestimmt.
Allerdings wurde der Einfluss dieser Faktoren bisher nicht systematisch untersucht. Daher zielte diese Arbeit darauf ab den Effekt von verschiedenen nTiO2-Produkten, welche sich in der Zusammensetzung der kristallinen Struktur unterschieden, auf die Toxizität von Kupfer (als Stellvertreter für Schwermetalle) für den pelagischen Testorganismus Daphnia magna in Gegenwart von verschiedenen Formen und Konzentrationen organischen Materials zu untersuchen. Es ist anzunehmen, dass die Dauer der Interaktion (=Alterung) die kombinierte Toxizität der Stressoren beeinflusst. Ergänzend wurde deshalb der Einfluss von nTiO2 auf die Kupfer-Toxizität nach einer Alterung unter dem Einfluss verschiedener Umweltparameter (nämlich organisches Material, pH, Ionenstärke) untersucht.
Des Weiteren wurde die Übertragbarkeit der wesentlichen Ergebnisse auf benthisch lebende Organismen mit Gammarus fossarum geprüft. Die vorliegende Arbeit zeigte für alle untersuchten Szenarien eine reduzierte Kupfer-Toxizität in Gegenwart von nTiO2, unabhängig von deren kristallinen Struktur. Dieser Effekt ließ sich auch auf benthische Lebewesen übertragen, obwohl die Exposition durch die Anwesenheit von nTiO2 aufgrund der Sedimentation mit dem adsorbierten Kupfer potenziell erhöht war.
Die erzielten Beobachtungen legen eine Verwendung von nTiO2 zur Aufreinigung von beispielsweise Abwasser nahe. Allerdings sollten potentielle Nebeneffekte (z.B. chronische Toxizität, Bildung von Sauerstoffradikalen) zunächst gründlich untersucht werden. Darüber hinaus sind die Übertragbarkeit auf andere Stressoren (z.B. andere Schwermetalle, organische Chemikalien) und der Verbleib von Schwermetallen in aquatischen Ökosystemen nach einer Sorption an nTiO2 ungewiss und bedürfen weiterer Forschung.
Synthetische Nanopartikel sind neuartige Schadstoffe. Aufgrund ihrer häufigeren Anwendung wird sich ihre Konzentration in der Umwelt in Zukunft voraussichtlich stark erhöhen. Die Untersuchung des Schicksals von synthetischen Kolloiden in der Umwelt erweist sich als schwierig, bedingt durch deren mögliche komplexe Wechselwirkungen mit den Bestandteilen aquatischer Systeme. Eine zentrale Rolle spielt hierbei die Lösungschemie. Insbesondere die Wechselwirkungen mit gelösten organischen Stoffen (DOM) sind bisher wenig verstanden.
Das Ziel dieser Arbeit bestand darin, angepasste analytische Methoden zu entwickeln, um die Effekte von DOM auf das Schicksal synthetische Kolloide in der Umwelt zu untersuchen.rnEine Literaturrecherche über die Wechselwirkungen den DOM mit anorganischen Kolloiden hat ergeben, dass es einen Mangel an systematischen Charakterisierungen von Kolloiden und DOM in den meisten Studien gibt, obwohl diese wesentlich wäre. Des Weiteren wäre die Erforschung der Fraktionierung von DOM auf Kolloiden bedeutend sowie die Untersuchungen der Effekte von DOM auf die dynamische Struktur von Agglomeraten. Für die Charakterisierung von niedrigkonzentrierten Agglomeraten in Umweltmedien werden passende analytische Techniken benötigt. Solche Techniken müssen genau, spezifisch, artefaktfrei (minimale Probenvorbereitung) und matrixunabhängig bei niedrigen Konzentrationen sein. Keine der üblichen Methoden (Mikroskopie, Lichtstreuungsmethode, Trenntechnicken) erfüllt alle diese Voraussetzungen. Jedoch stellt die Hydrodynamische Chromatographie gekoppelt mit Massenspektrometrie mit induktiv gekoppeltem Plasma (HDC-ICP-MS) einen vielversprechenden Kompromiss dar. Mit dieser Methode kann die Größe von anorganischen Partikeln in komplexen Medien und in Konzentrationsbereichen unter ppb elementspezifisch gemessen werden. Allerdings wurden die Begrenzungen der Methode nicht systematisch untersucht.
Während dieser Doktorarbeit wurde das Potenzial dieser Methode weiter untersucht. Der einfache Trennmechanismus ermöglicht einen großen Spielraum für die Elutionsparameter und eine universelle Kalibrierung kann für Partikel mit unterschiedlicher Zusammensetzung und unterschiedlicher Oberflächenchemie angewendet werden. Eine schwache Auflösung der Partikelgröße sowie die Effekte der Partikelform auf den Retentionsfaktor stellen die wichtigsten Begrenzungen der Methode dar.rnDie Anwendung von HDC gekoppelt mit Einzelpartikel ICP-MS (HDC-SP-ICP-MS) bietet neue Möglichkeiten für die Partikelformerkennung und die Differenzierung zwischen primären Partikeln und Homoagglomeraten. Diese Kopplungstechnik ist deswegen hochattraktiv, um Effekte von DOM auf der Stabilität von Kolloiden zu untersuchen. Die Vielseitigkeit der HDC-ICP-MS konnte durch verschiedene erfolgreiche Anwendungen hervorgehoben werden. Insbesondere wurde sie genutzt, um die Stabilität von zitrat-stabilisierte Silberkolloiden in synthetischem Flusswasser unter Anwesenheit verschiedener Typen DOM zu untersuchen. Diese Partikel waren mehr als eine Stunde stabil unabhängig von pH und vom Typ der DOM. Dieses Ergebnis deckt sich mit den Ergebnissen einer parallel publizierten Studie über die Stabilität von Silberkolloiden in Rheinwasser. Die direkte Untersuchung von DOM-Adsorption auf Kolloiden war mit UV- und Fluoreszenzdetektoren nicht möglich. Vorversuche wiesen darauf hin, dass die fluoreszierenden Huminsaüremoleküle auf Silberkolloiden nicht adsorbieren. Lösungen für die verbleibenden Schwierigkeiten in der Analyse der Wechselwirkungen der DOM werden vorgeschlagen und die vielfältigen Entwicklungs- und Anwendungserspektiven von HDC-(SP)-ICP-MS in den Umweltwissenschaften werden im Detail diskutiert.
Die nichtsuizidale Selbstverletzung (NSSV) wurde im DSM-5 als Störung zur weiteren Erforschung aufgenommen. Daher ist es wichtig, die vorgeschlagenen Diagnosekriterien hinsichtlich ihrer diagnostischen, klinischen und psychologischen Korrelate zu untersuchen. Zusätzlich ist eine klare Abgrenzung zur Borderline Persönlichkeitsstörung (BPS) notwendig, hierbei könnte die Untersuchung von Persönlichkeitseigenschaften helfen. Soziale Schwierigkeiten dienen oft als Auslöser von NSSV. Dennoch ist wenig erforscht, wie Jugendliche mit NSSV soziale Situation wahrnehmen. Ein neues Emotionserkennungsparadigma mit farbigen, dynamischen emotionalen Gesichtsausdrücken wurde entwickelt und an einer studentischen Stichprobe evaluiert, die für ihre hohe (HSA) oder niedrige soziale Ängstlichkeit (LSA) ausgewählt wurde. HSA zeigten eine Tendenz zu einer beeinträchtigten Erkennung von Gesichtsausdrücken. Des Weiteren konnte eine gute Konstruktvalidität für das Paradigma festgestellt werden.
In der Hauptstudie untersuchten wir die Charakteristika von NSSV, die Persönlichkeitseigenschaften und die Emotionserkennung bei 57 Jugendlichen mit NSSV, 12 Jugendlichen mit NSSV ohne Einschränkung und Leiden, 13 Jugendlichen mit BPS, einer klinischen Kontrollgruppe (n = 32) und einer nicht-klinischen Kontrollgruppe (n = 64). Die Teilnehmer wurden bezüglich psychischer Störungen befragt, füllten Fragebögen aus und nahmen am Emotionserkennungsparadigma teil.
Die Ergebnisse zeigten auf, dass Jugendliche mit NSSV im Vergleich zur klinischen Kontrollgruppe eine erhöhte Psychopathologie aufwiesen. Weiterhin fanden sich Gemeinsamkeiten sowie Unterschiede zwischen den Jugendlichen mit NSSV und Jugendlichen mit BPS. Jugendliche mit NSSV kennzeichnen sich durch eine hohe Schadensvermeidung und hohes Neugierverhalten im Vergleich zur klinischen Kontrollgruppe. Bei Jugendlichen mit BPS waren diese Persönlichkeitseigenschaften noch ausgeprägter. Weiterhin, konnten keine Gruppenunterschiede bezüglich der Emotionserkennung gefunden werden. Jugendliche mit NSSV bewerteten jedoch die Gesichtsausdrücke als unangenehmer und emotional aufwühlender.
Zusammenfassend zeigt sich NSSV als stark einschränkende Störung, die mit einer hohen Komorbidität einhergeht und mit spezifischen Persönlichkeitseigenschaften assoziiert ist. Die Ergebnisse liefern zusätzliche Evidenz für die neue Diagnose NSSV und weisen darauf hin, dass die vorgeschlagenen DSM-5 Kriterien hilfreich und notwendig sind.
In dieser Arbeit präsentieren wir Methoden zum Schätzen von Kamerabewegungen einer RGB-D-Kamera in sechs Freiheitsgraden und dem Erstellen von 3D-Karten. Als erstes werden die RGB- und Tiefendaten registriert und synchronisiert. Nach der Vorverarbeitung extrahieren wir FAST-Merkmale in zwei aufeinander folgenden Bildern. Daraus wird eine Korrespondenzmenge erstellt und Ausreißer werden herausgefiltert. Anschließend projizieren wir die Korrespondenzmenge in 3D, um die Bewegung aus 3D-3D-Korrespondezen mittels Least-Squares zu bestimmen. Weiterhin präsentieren wir Methoden, um 3D-Karten aus Bewegungsschätzungen und RGB-D-Daten zu erstellen. Dafür benutzen wir das OctoMap-Framework und erstellen wahlweise auch inkrementelle Karten aus Punktewolken. Anschließend evaluieren wir das System mit dem weit verbreiteten RGB-D-Benchmark.
Change of ecosystems and the associated loss of biodiversity is among the most important environmental issues. Climate change, pollution, and impoundments are considered as major drivers of biodiversity loss. Organism traits are an appealing tool for the assessment of these three stressors, due to their ability to provide mechanistic links between organism responses and stressors, and consistency over wide geographical areas.
Additionally, traits such as feeding habits influence organismal performance and ecosystem processes. Although the response of traits of specific taxonomic groups to stressors is known, little is known about the response of traits of different taxonomic groups to stressors. Additionally, little is known about the effects of small impoundments on stream ecosystem processes, such as leaf litter decomposition, and food webs.
After briefly introducing the theoretical background and objectives of the studies, this thesis begins by synthesizing the responses of traits of different taxonomic groups to climate change and pollution. Based on 558 peer-reviewed studies, the uniformity (i.e., convergence) in trait response across taxonomic groups was evaluated through meta-analysis (Chapter 2). Convergence was primarily limited to traits related to tolerance.
In Chapter 3, the hypothesis that small impoundments would modify leaf litter decomposition rates at the sites located within the vicinity of impoundments, by altering habitat variables and invertebrate functional feeding groups (FFGs) (i.e., shredders), was tested. Leaf litter decomposition rates were significantly reduced at the study sites located immediately upstream (IU) of impoundments, and were significantly related to the abundance of invertebrate shredders.
In Chapter 4, the invertebrate FFGs were used to evaluate the effect of small impoundments on stream ecosystem attributes. The results showed that heterotrophic production was significantly reduced at the sites IU. With regard to food webs, the contribution of methane gas derived carbon to the biomass of chironomid larvae was evaluated through correlation of stable carbon isotope values of chironomid larvae and methane gas concentrations.
The results indicated that the contribution of methane gas derived carbon into stream benthic food web is low. In conclusion, traits are a useful tool in detecting ecological responses to stressors across taxonomic groups, and the effects of small impoundments on stream ecological integrity and food web are limited.