Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (469)
- Ausgabe (Heft) zu einer Zeitschrift (352)
- Bachelorarbeit (275)
- Diplomarbeit (196)
- Masterarbeit (189)
- Studienarbeit (138)
- Wissenschaftlicher Artikel (14)
- Konferenzveröffentlichung (12)
- Sonstiges (8)
- Bericht (8)
- Buch (Monographie) (5)
- Habilitation (5)
- (1)
- Vorlesung (1)
- Preprint (1)
Sprache
- Deutsch (1134)
- Englisch (533)
- Mehrsprachig (4)
- Spanisch (2)
- (1)
Schlagworte
- Vorlesungsverzeichnis (55)
- Bildverarbeitung (16)
- Augmented Reality (15)
- Simulation (12)
- Computergraphik (10)
- Computersimulation (10)
- Pestizid (10)
- Robotik (10)
- Computergrafik (9)
- Computervisualistik (9)
Institut
- Institut für Computervisualistik (336)
- Fachbereich 4 (298)
- Zentrale Einrichtungen (174)
- Institut für Wirtschafts- und Verwaltungsinformatik (147)
- Institut für Informatik (143)
- Institut für Management (116)
- Fachbereich 7 (99)
- Institute for Web Science and Technologies (56)
- Institut für Softwaretechnik (54)
- Fachbereich 8 (47)
By the work presented in this thesis, the CH4 emissions of the River Saar were quantified in space and time continuously and all relevant processes leading to the observed pattern were identified. The direct comparison between reservoir zones and free-flowing intermediate reaches revealed, that the reservoir zones are CH4 emission hot spots and emitted over 90% of the total CH4. On average, the reservoir zones emitted over 80 times more CH4 per square meter than the intermediate reaches between dams (0.23 vs. 19.7 mol CH4 m-2 d-1). The high emission rates measured in the reservoir zones fall into the range of emissions observed in tropical reservoirs. The main reason for this is the accumulation of thick organic rich sediments and we showed that the net sedimentation rate is an excellent proxy for estimating ebullitive emissions. Within the hot spot zones, the ebullitive flux enhanced also the diffusive surface emissions as well as the degassing emissions at dams.
To resolve the high temporal variability, we developed an autonomous instrument for continuous measurements of the ebullition rate over long periods (> 4 weeks). With this instrument we could quantify the variability and identify the relevant trigger mechanisms. At the Saar, ship-lock induces surges and ship waves were responsible for over 85% of all large ebullition events. This dataset was also used to determine the error associated with short sampling periods and we found that with sampling periods of 24 hours as used in other studies, the ebullition rates were systematically underestimated by ~50%. Measuring the temporal variability enabled us to build up a conceptual framework for estimating the temporal pattern of ebullition in other aquatic systems. With respect to the contribution of freshwater systems to the global CH4 emissions, hot spot emission sites in impounded rivers have the potential to increase the current global estimate by up to 7%.
The Coronavirus Pandemic has influenced the lives of many people. We analyzed the effects of physical activity and stress on students’ motivation during the Pandemic. Participants were 254 university students who reported their academic motivation, physical activity, general stress, the Coronavirus Pandemic strain, and their Coronavirus stress. Women reported higher levels of Coronavirus stress, general stress, and motivation. The Coronavirus stress was predicted by the strain of the Coronavirus Pandemic but not by physical activity. General stress and gender predicted mastery goals, and performance goals were predicted by general stress. Physical activity was not related to students’ motivation during the Pandemic. Higher levels of general stress were associated with higher academic motivation. Negative emotions like stress could have enhanced students’ motivation during uncertain times of the Pandemic. Moreover, a moderate stress level could be favorable for academic dedication and achievement.
Diese Arbeit befasst sich mit der Migration von Software-Systemen hin zur Verwendung des im Unicode-Standard definierten Zeichensatzes. Die Arbeit wird als Fallstudie am Dokumenten-Management-System PROXESS durchgeführt. Es wird ein Umstellungsprozess entworfen, der die Arbeitsschritte der Migration für das gesamte System und eine beliebige Zerlegung des Systems in einzelne Module definiert. Die Arbeitsschritte für die einzelnen Module können zu großen Teilen zeitlich unabhängig voneinander durchgeführt werden. Für die Umstellung der Implementierung wird ein Ansatz zur automatischen Erkennung von Verwendungsmustern eingesetzt. Im abstrakten Syntaxbaum werden Sequenzen von Anweisungen gesucht, die einem bestimmten Verwendungsmuster zugeordnet werden. Ein Verwendungsmuster definiert eine weitere Sequenz von Anweisungen, die eine Musterlösung für die Unicode-basierte Handhabung von Strings darstellt. Durch das Anwenden einer Transformationsregel wird die ursprüngliche Anweisungssequenz in die zum Verwendungsmuster gehörende Anweisungssequenz überführt. Dieser Mechanismus ist ein Ausgangspunkt für die Entwicklung von Tools, die Transformationen von Anweisungssequenzen automatisch durchführen.
Uniprisma Ausg. 2005
(2015)
Uniprisma Ausg. 2006
(2015)
Uniprisma Ausg. 2007
(2015)
Uniprisma Ausg. 2008
(2015)
Uniprisma Ausg. 2009
(2015)
Uniprisma Ausg. 2010
(2015)
Uniprisma Ausg. 2011
(2016)
Ziel der vorliegenden Arbeit ist die Erforschung von Einstellungen und prosozialem Verhalten zwischen Arbeitsgruppen aus Sicht der Theorie der sozialen Identität und der Kontakthypothese. Dem Rekategorisierungsmodell von Gaertner und Dovidio (2000) folgend wird angenommen, dass "optimale" Kontaktbedingungen (Allport, 1954) eine gemeinsame organisationale Identität anregen. Diese gemeinsame Identität sollte verschiedene Arbeitsgruppen dazu motivieren, zusammenzuarbeiten und freiwilliges Arbeitsverhalten zu zeigen anstelle von Voreingenommenheiten. Vorhersagen des Rekategorisierungsmodells werden zusätzlich durch Annahmen aus dem Eigengruppen-Projektionsmodell (Mummendey & Wenzel, 1999) und dem Selbstkategorisierungsmodell der Gruppennormen (Terry & Hogg, 1996) ergänzt. Die abgeleiteten Hypothesen werden an einer Stichprobe von N1 = 281 MitarbeiterInnen aus N2 = 49 Abteilungen und den entsprechenden AbteilungsleiterInnen eines deutschen Versandhandelsunternehmens überprüft (Studie 1). Die Ergebnisse zeigen, dass Kontaktbedingungen auf Gruppen- und Personenebene weniger Voreingenommenheit zwischen Arbeitsgruppen, sowie mehr prosoziales Verhalten (d. h. Kooperation und Hilfeverhalten) vorhersagen. Die Repräsentation als gemeinsame Gruppe vermittelt diesen Zusammenhang für die Variablen Bewertung der Fremdgruppe und Kooperation. Dagegen wird der Zusammenhang zwischen gemeinsamer organisationaler Identität und Voreingenommenheit durch die relative Prototypikalität der Abteilung moderiert, wie es das Eigengruppen-Projektionsmodell vorhersagt. Der Effekt einer prosozialen Gruppennorm auf Hilfeverhalten wird durch die Identifikation mit der Arbeitsgruppe moderiert. In einer Längsschnittstudie mit insgesamt N = 57 Mitgliedern studentischer Projektgruppen wird der Befund repliziert, dass Kontakt unter "optimalen" Bedingungen zu mehr prosozialem Verhalten und weniger Voreingenommenheit zwischen organisationalen Gruppen führt. Der Mediationseffekt durch eine gemeinsame Gruppenidentität zeigt sich jedoch in Studie 2 nicht. Die Ergebnisse der ersten Studie lassen vermuten, dass interpersonales Hilfeverhalten besser durch Prädiktoren auf der gleichen Kategorisierungsebene (d. h. Personenebene) vorhergesagt werden kann (vgl. Haslam, 2004). Daher wird die zusätzliche Annahme getroffen, dass Kontakt in einem Kontext, welcher persönliche Identitäten salient macht (d. h. zu Dekategorisierung führt), interpersonales Verhalten besser vorhersagen kann. Dagegen sollte Kontakt in einem Kontext, welcher Gruppenidentitäten salient macht (d. h. zu Kategorisierung führt), intergruppales Verhalten besser vorhersagen können (vgl. Tajfel, 1978). Zusätzliche Daten aus Studie 1 belegen diesen kontextspezifischen Effekt von Kontakt auf interpersonales bzw. intergruppales prosoziales Verhalten. Im letzten Schritt wird das längsschnittliche Kontaktmodell von Pettigrew (1998) untersucht, welches Kontakt in Kontexten, die zu Dekategorisierung, Kategorisierung bzw. Rekategorisierung führen, in einer zeitlichen Abfolge miteinander verbindet. Erste Befunde aus Studie 2 zeigen, dass eine Abfolge der Kategorisierungsprozesse beginnend bei Dekategorisierung über Kategorisierung hin zu Rekategorisierung eine besonders effektive Möglichkeit zur Verbesserung der Kooperation zwischen Gruppen bieten könnte. Zum Abschluss wird ein Kontextspezifisches Kontaktmodell vorgeschlagen, das Befunde aus den beiden vorgestellten Studien integriert und zu weiterer Forschung an prosozialem Verhalten zwischen Arbeitsgruppen anregen soll. Mögliche Mediatoren und Moderatoren werden neben einer Reihe von Implikationen für die Forschung und Praxis diskutiert.
Praktika als gängige Lehr-Lernformate in hochschulischen Kontexten setzen stets die Zusammenarbeit verschiedener Institutionen und Personen voraus, da Studierende mit einem Praktikum den Lernort der Universität verlassen und in einen beruflichen Handlungszusammenhang mit den zugehörigen organisationalen Strukturen versetzt werden. Praktika werden unter anderem als Elemente der Berufsorientierung gesellschaftliche Implikationen zugeschrieben. Als Format innerhalb eines hochschulischen Bildungsgangs sind sie darüber hinaus mit didaktischen Begründungen verbunden und durch die Beteiligung verschiedener Personen auch mit individuellen Interessen. Studierende sind während eines Praktikums in der Rolle als Praktikant*in in besonderer Weise individuell gefordert. Ergänzt werden diese Perspektiven durch die Betrachtung disziplinärer und professioneller Implikationen, die sich für Praktika erziehungswissenschaftlicher Studiengänge ergeben. Zusammenarbeit findet in Praktika zwischen Organisationen, in Organisationen und zwischen Personen statt. Der geringe Forschungsstand zu Perspektiven auf Fragen der Zusammenarbeit für in erziehungswissenschaftliche Studiengänge integrierte Praktika bietet den Anlass der Studie. Um die verschiedenen Perspektiven auf Praktika als Zusammenarbeit zu erheben, werden qualitative episodische Interviews sowohl mit den Studierenden und Lehrenden einer Universität, als auch mit für Praktika verantwortlichen Tätigen aus dem beruflichen Bereich durchgeführt, die nach der qualitativen inhaltlich strukturierenden Inhaltsanalyse ausgewertet werden. Aus der Auswertung der geführten Interviews mit den drei Akteur*innen-Gruppen ergibt sich ein Einblick darin, wie sich Zusammenarbeit zwischen pädagogisch tätigen Institutionen, Universitäten und Studierenden in und durch Praktika konkretisiert. Es werden beispielsweise Aspekte der Interaktionsbezogenen Dimensionen beschrieben, wie auftauchende Dilemmata, Resonanzen, Kulturen des Umgangs, Interessenslagen und Konstellationen von Akteur*innen. Diese werden ergänzt um Aspekte der Dimensionen mit Bezug zu Institutionen, Umwelt, Aufgaben und Personen. Die Interviewaussagen von drei interviewten Akteur*innen-Gruppen Studierende, Praxisanleiter*innen, universitäre Lehrende werden vergleichend anhand dieser Dimensionen betrachtet und als Ergebnisse dieser Studie dargestellt. Die Ergebnisse liefern Aussagen dazu, wie Zusammenarbeit in Praktika erziehungswissenschaftlicher Studiengänge von den beteiligten Akteur*innen-Gruppen wahrgenommen wird. Dies kann dazu beitragen die differierenden Perspektiven anschlussfähig zu machen für die didaktische und organisatorische Gestaltung von Praktika durch Institutionen wie Universitäten und Praktikumseinrichtungen, aber auch durch Initiative von Studierenden in der Rolle als Praktikant*innen während eines erziehungswissenschaftlichen Studiums. Auch für weitere Forschungsprojekte zum Zusammenwirken der Beteiligten in Praktika kann die Studie Anstöße bieten.
Auszug Vorwort: "... Die aus Anlass des Jubiläums erstellte Broschüre soll einen kleinen Einblick in die Vergangenheit der Universitätsbibliothek geben, einige - auch unterhaltsame - Details aus der Bibliotheksarbeit präsentieren und zeigen, dass wir fortwährend daran interessiert sind, unseren Nutzern auf sie zugeschnittene Services zu bieten ..." Dr. Thomas Wollschläger
Unlocking the semantics of multimedia presentations in the web with the multimedia metadata ontology
(2010)
The semantics of rich multimedia presentations in the web such as SMIL, SVG and Flash cannot or only to a very limited extend be understood by search engines today. This hampers the retrieval of such presentations and makes their archival and management a difficult task. Existing metadata models and metadata standards are either conceptually too narrow, focus on a specific media type only, cannot be used and combined together, or are not practically applicable for the semantic description of rich multimedia presentations. In this paper, we propose the Multimedia Metadata Ontology (M3O) for annotating rich, structured multimedia presentations. The M3O provides a generic modeling framework for representing sophisticated multimedia metadata. It allows for integrating the features provided by the existing metadata models and metadata standards. Our approach bases on Semantic Web technologies and can be easily integrated with multimedia formats such as the W3C standards SMIL and SVG. With the M3O, we unlock the semantics of rich multimedia presentations in the web by making the semantics machine-readable and machine-understandable. The M3O is used with our SemanticMM4U framework for the multi-channel generation of semantically-rich multimedia presentations.
Unternehmen in Netzwerken
(2007)
Die Dissertation bietet einen internationalen Vergleich von Gestaltungsmustern der Flexibilitätssteuerung von Unternehmen mit Schwerpunkt auf die Automobilindustrie. Vor dem Hintergrund unterschiedlicher nationaler institutioneller Systeme werden betriebliche Flexibilitätsstrategien analysiert und deren Hintergründe und Funktionsweisen detailliert erläutert. Die Analyse institutioneller Rahmenbedingungen erfolgt mittels der "Varieties of Capitalism". Die Eruierung von Flexibilitätsstrategien basiert auf einer internationalen Fallstudie.
Im Rahmen von Projekten haben die Mitarbeiter in einem Unternehmen oft komplexe Problemstellungen zu bearbeiten, für die es keine objektiv richtigen oder falschen Lösungen gibt. Stattdessen werden im Rahmen der Entwurfs- und Entscheidungsprozesse mehrere Lösungsvorschläge erarbeitet um dann unter Abwägung von Pro- und Contra-Argumenten eine möglichst optimale Lösung zu finden.
Die vorliegende Arbeit beschäftigt sich mit den Unterstützungsmöglichkeiten des stationären Vertriebs mithilfe aktueller mobiler Anwendungen. Das Internet hat bereits dafür gesorgt, dass der Handelsmarkt dynamischer und die Bedingungen für den langjährigen stationären Vertrieb anspruchsvoller geworden sind. Online-Händler bieten aufgrund kleinerer Kostenstrukturen Preise an, bei denen der stationäre Point of Sale nur schwerlich mithalten kann. Zudem steigert sich die Akzeptanz Online-Kaufabschlüsse umzusetzen, weil sich Serviceleistungen der e-Shops verbessert haben und digitale Transaktionen für moderne Konsumenten immer attraktiver werden. Heute haben Smartphones und Tablets die Digitalisierung unserer Gesellschaft auf ein ganz neues Niveau katapultiert. Durch den Einzug des mobilen Internets haben sich die Effekte, die das stationäre Internet bereits hervorbrachte, intensiviert. Die Frage die sich dabei stellt ist: Wie sehr werden sich die Wettbewerbsbedingungen für den stationären Vertrieb verändern? Dabei verfolgt die Arbeit das Ziel aktuelle mobile Dienste, ihre Funktionalitäten und Praxisanwendungen zusammenzutragen und in geeigneter Form in den Vertriebsprozess zu integrieren. Dadurch soll die Erkenntnis gewonnen werden, ob der Einzug des mobilen Internets nicht doch als ein Vorteil für den stationären Vertrieb angesehen werden darf.
Community-Plattformen im Internet verwenden codebasierte Governance, um ihre hohe Anzahl an Nutzerbeiträgen zu verwalten. Dazu gehören alle Arten von Funktionalitäten, mit denen die Community Nutzerbeiträge in irgendeiner Form direkt oder indirekt beurteilen kann. Diese Arbeit erklärt zunächst die Bedeutung codebasierter Governance und der verschiedenen dafür nutzbaren Funktionalitäten. Anschließend werden die erfolgreichsten 50 Community-Plattformen auf codebasierte Governance untersucht. Das Ergebnis zeigt die Zusammenhänge zwischen dem Aufbau einer Plattform, der Beschaσffenheit der Nutzerbeiträge und der darauf ausübbaren codebasierten Governance auf.
Diese Arbeit beschäftigt sich mit einigen Problemen, die beim Rendern von stereoskopischen Inhalten auftreten können. Die Probleme werden dabei mit Hilfe eines selbstentwickelten Programms simuliert und von einer Gruppe von Testpersonen bewertet. Dabei soll festgehalten werden, wie stark die Fehler wahrnehmbar sind und welchen Einfluss sie auf den 3D-Eindruck haben. Des Weiteren soll untersucht werden, ob die verschiedenen Kameraanordnungen einen Einfluss auf die Wahrnehmung des 3D-Eindrucks und des Fehlers haben.
Das allgemeine Erreichbarkeitsproblem in Stellen/Transitions-Netzen behandelt die Frage, ob eine bestimmte Zielmarkierung aus einer anderen Markierung erreichbar ist. Die lineare Algebra als Teilgebiet der Mathematik kann zur Beschreibung und Analyse von Petri-Netzen herangezogen werden. Jedoch stellen Kreise in Netzen bei der Erreichbarkeitsanalyse ein Problem für sie dar: ob für bestimmte Transitionen erforderliche Marken sofort, erst nach dem Durchlaufen bestimmter Kreise oder gar nicht zur Verfügung stehen, ist nicht erkennbar, hat jedoch unmittelbare Auswirkungen auf die Erreichbarkeit. Es gibt verschiedene Möglichkeiten, dieses Problem linear-algebraisch anzugehen. In dieser Arbeit werden vorhandene Verfahren sowie neue Lösungsansätze auf Basis der Reproduzierbarkeit der leeren Markierung diskutiert.
Die vorliegende Arbeit gibt einen Überblick über die Rahmenbedingungen der Programmierung von Grafikkarten. Dazu werden die zur wichtigsten am Markt vorhandenen Application Programming Interfaces (APIs) vorgestellt und miteinander verglichen. Anschließend werden zwei Standardalgorithmen aus der Datenverarbeitung, Prefix Sum und Radixsort vorgestellt und im Hinblick auf die Implementierung mit paralleler Programmierung auf der GPU zu untersucht. Beide Algorithmen wurden unter Nutzung der OpenGL-API und OpenGL Compute Shadern implementiert. Abschließend wurden die Ausführungszeiten der beiden Algorithmen miteinander verglichen.
Im Kontext der Erweiterten Realität versteht man unter Tracking Methoden zur Bestimmung von Position und Orientierung (Pose) eines Betrachters, die es ermöglichen, grafische Informationen mittels verschiedenster Displaytechniken lagerichtig in dessen Sichtfeld einzublenden. Die präzisesten Tracking-Ergebnisse liefern Methoden der Bildverarbeitung, welche in der Regel nur die Pixel des Kamerabildes zur Informationsgewinnung heranziehen. Der Bildentstehungsprozess wird bei diesen Verfahren jedoch nur bedingt oder sehr vereinfacht miteinbezogen. Bei modellbasierten Verfahren hingegen, werden auf Basis von 3D-Modelldaten Merkmale identifiziert, ihre Entsprechungen im Kamerabild gefunden und aus diesen Merkmalskorrespondenzen die Kamerapose berechnet. Einen interessanten Ansatz bilden die Strategien der Analyse-durch-Synthese, welche das Modellwissen um Informationen aus der computergrafischen Bildsynthese und weitere Umgebungsvariablen ergänzen.
Im Rahmen dieser Arbeit wird unter Anwendung der Analyse-durch-Synthese untersucht, wie die Informationen aus dem Modell, dem Renderingprozess und der Umgebung in die einzelnen Komponenten des Trackingsystems einfließen können. Das Ziel ist es, das Tracking, insbesondere die Merkmalssynthese und Korrespondenzfindung, zu verbessern. Im Vordergrund steht dabei die Gewinnung von visuell eindeutigen Merkmalen, die anhand des Wissens über topologische Informationen, Beleuchtung oder perspektivische Darstellung hinsichtlich ihrer Eignung für stabiles Tracking der Kamerapose vorhergesagt und bewertet werden können.
Es gibt einige Gaze Tracking Systeme, sowohl high- als auch low-cost. Low-cost Systeme gehen meist mit low-resolution Kameras einher. Da hier die Bildqualität schlechter ist, müssen die Algorithmen umso besser arbeiten. Aber wie soll man die Algorithmen die der Erkennung der Blickrichtung dienen, testen, wenn die Bildqualität geringer ist und man nie korrekte Aussagen über die Referenzpunkte treffen kann? Hier greift die Idee dieser Arbeit: Mit Hilfe synthetischer Augenbilder testet man die betreffenden Algorithmen und kann diese, da die Referenzpunkte bekannt sind, analysieren. Eine Veränderung der Komplexität dieser Bilder z. B. mit Hilfe eines zuschaltbaren Gaußrauschens oder eines weiteren Reflektionspunktes, macht es möglich, diese in Stufen der Realität anzunähern. Im Idealfall kann man die Algorithmen mit den aus den Testreihen gewonnenen Erkenntnissen verbessern und bei Anwendung innerhalb eines low-resolution Systems dessen Genauigkeit erhöhen.
Remote Rendering ist eine Möglichkeit aufwändige Grafik von leistungsstarker Hardware für leistungsschwächere Endgeräte bereitzustellen. Durch den Transfer der Daten über ein Netzwerk entsteht eine Verzögerung, welche die Interaktivität einschränkt. Ein Verfahren, um Befehle an eine virtuelle Kamera auf dem Endgerät direkt umzusetzen, wird 3D-Warping genannt. Das Verfahren erzeugt jedoch Bildartefakte. In dieser Arbeit werden verschiedene Ansätze für Remote Rendering Setups aufgezeigt. Zusätzlich werden die auftretenden Artefakte des Warpings und Methoden zur Verbesserung des Verfahrens beschrieben. Es werden eigene Implementationen und Verbesserungen vorgestellt und untersucht.
Response-Shift bezeichnet eine Veränderung des Bewertungshintergrunds für subjektive Konzepte wie bspw. der gesundheitsbezogenen Lebensqualität (GLQ) im Rahmen der Auseinandersetzung mit einer schweren bzw. chronischen Erkrankung. Krebserkrankungen werden als Auslöser eines Response-Shifts angesehen. Response-Shift kann in drei verschiedenen Formen auftreten: Als Rekalibrierung, Reprioritisierung und Neukonzeptualisierung der GLQ. Eine Erfassung dieser drei Response-Shift-Prozesse bei einer homogenen Stichprobe von PCa-Patienten in der onkologischen Rehabilitation liegt in Deutschland bisher nicht vor. Es wurden von insgesamt 212 Prostatakrebspatienten (PCa-Patienten) in der Anschlussheilbehandlung Daten zur GLQ mittels des EORTC-QLQ-C30 vor Beginn der Maßnahme sowie 3 Monate nach Beginn erhoben und in die Auswertung zur Response-Shift-Erfassung aufgenommen. Die Prozesse Rekalibrierung, Reprioritisierung und Neukonzeptualisierung wurden mit Hilfe der konfirmatorischen Faktorenanalyse (KFA) erfasst. Eine Rekalibrierung läßt sich auf der Ebene der Messfehler und Intercepts überprüfen. Die Reprioritisierung und Neukonzeptualisierung kann anhand der Veränderung der Faktorladungen untersucht werden. Bei dem Vorgehen handelt es sich um einen Ansatz aus der Invarianzmessung von Variablen und Parametern im Längsschnitt. In der vorliegenden Arbeit wurde untersucht, ob in der Gesamtstichprobe ein Response-Shift auftritt, und falls ja, in welcher Form (Fragestellung 1). Weiterhin sollte anhand von Subgruppenanalysen (Medianisierung) geprüft werden, welchen Einfluss einerseits das Ausmaß der Veränderung der globalen Lebensqualität (Fragestellung 2) und andererseits die Variablen Benefit-Finding, Selbstwirksamkeit sowie Positive und Negative Affektivität (Fragestellung 3) auf einen Response-Shift haben. Es konnte ein Basismodell der GLQ zu zwei Messzeitpunkten bei den PCa-Patienten identifiziert werden, dass als geeignet bezeichnet wurde, um einen Response Shift in der vorliegenden Stichprobe zu untersuchen (ï£2/df = 1.50, RMSEA = 0.05, CFI = 0.98, TLI = 0.97). Ein so genanntes Nullmodell, in dem alle Response-Shift relevanten Parameter für beide Messzeitpunkte als gleich angenommen wurde, wies eine inakzeptable Modellpassung auf (ï£2/df = 5.30, RMSEA = 0.14, CFI = 0.76, TLI = 0.71). Über die Ableitung geschachtelter Modellvergleiche konnte ausgehend von dem Nullmodell ein Response-Shift-Modell berechnet werden, dass wiederum eine gute Passung aufwies (ï£2/df= 1.31, RMSEA = 0.04, CFI = 0.99, TLI = 0.98). In der vorliegenden Gesamtstichprobe wurden Rekalibrierungsprozesse auf den Skalen Physische, Kognitive und Rollenfunktionsfähigkeit identifiziert, die sich auf die Kalkulation der beobachteten Effekte auf Skalenebene auswirkten. Es konnte gezeigt werden, dass Response Shift einen erheblichen Einfluss auf die beobachteten Effekten auf Skalenebene hat (Fragestellung 1). So schätzen PCa-Patienten ihre Physische und Rollenfunktionsfähigkeit zum 2. Messzeitpunkt positiver ein, ohne dass dies auf Veränderungen der GLQ zurückgeführt werden kann. Unabhängig von der Veränderung der GLQ zwischen den Messzeitpunkten schätzen die Patienten ihre Kognitive Funktionsfähigkeit zum Postmesszeitpunkt negativer ein als zur ersten Messung. In den Subgruppenanalysen zeigt sich, dass das Ausmaß der Veränderung der globalen Lebensqualität einen Einfluss auf die Anzahl von Response-Shift-Prozessen hat. Dies gilt ebenso für die Variablen Benefit-Finding, Selbstwirksamkeit und Positive Affektivität. Jedoch lassen sich Unterschiede im Ausmaß von Response-Shift-Effekten zwischen verschiedenen Subgruppen nicht eindeutig nachweisen (Fragestellung 2 und 3). Response Shift sollte bei Untersuchungen der GLQ bei Krebserkrankungen mehr Berücksichtigung finden. Das setzt jedoch voraus, dass die Methoden zur Erfassung des Phänomens weiterentwickelt werden. Mit der hier eingesetzt Methode der KFA im Längsschnitt steht ein geeignetes Verfahren zur Verfügung, das Response-Shift bei einfachen Prä-Post-Messungen erfassen kann. Praktisch relevant erscheint das Ergebnis der Arbeit im Zusammenhang mit der Überprüfung der Wirksamkeit von Maßnahmen der onkologischen Rehabilitation. Werden zur Evaluation Skalen eingesetzt, die response-shift-beeinflusst sind, darf nicht ohne Weiteres auf eine Veränderung des zugrundeliegenden Konstrukts geschlussfolgert werden. In der vorliegenden Arbeit würde die Veränderung der GLQ anhand der Veränderung der manifesten Werte der Skalen Physische und Rollenfunktionsfähigkeit eher überschätzt. Anhand der Skala Kognitive Funktionsfähigkeit würden Veränderungen der GLQ jedoch eher unterschätzt. Somit bietet sich der KFA-Ansatz an, um die Änderungssensitivität von Lebensqualitätsinstrumenten zu prüfen und diese entsprechend weiter zu entwickeln. Außerdem bietet die Methode Möglichkeiten, um inhaltliche Einflussfaktoren auf einen Response-Shift zu prüfen.
Wie beeinflussen spieletechnische Eigenschaften eines Videospiels den Spielspaß? Diese Arbeit wird eine Antwort auf diese Frage suchen, indem sie ein selbst programmiertes Videospiel dafür nutzt, welches von Grund auf dafür erstellt wird. Das Videospiel wird in zwei Varianten programmiert, welche sich nur in seinen spieletechnischen Eigenschaften unterscheidet. Verschiedene Probanden werden das Videospiel dann spielen und im Nachhinein eine Umfrage diesbezüglich beantworten. Um möglichst fehlerfreie Umfragewerte zu bekommen, die lediglich Werteänderungen durch Änderung der spieletechnischen Eigenschaften aufzeigt, wurden gründliche Überlegungen zum Game Design und zum Spielkonzept gemacht. Die Ergebnisse vermuten, dass die spieletechnischen Eigenschaften eines Videospiels einen sehr großen Einfluss auf den Spielspaß haben. Jedoch sind diese Eigenschaften nicht allein dafür verantwortlich, warum ein Videospiel Spaß machen kann. Psychologische Aspekte sind auch bei Änderungen von spieletechnischen Eigenschaften zu beachten.
Global-Illumination ist eine wichtige Komponente beim Rendering von realistischen Bildern. Der Rechenaufwand für die akkurate Simulation dieser Effekte ist jedoch zu hoch für die Berechnung in Echtzeit. In dieser Arbeit werden Light-Propagation-Volumes, Scren-Space-Reflections und mehrere Varianten von Screen-Space-Ambient-Occlusion als Lösungen für Echtzeitrendering untersucht. Es wird gezeigt, dass alle schnell genug für den Einsatz in Echtzeitanwendungen sind. Die einzelnen Techniken approximieren nur einige Aspekte des Transports von Licht, ergänzen sich jedoch gegenseitig.
Die (un-)kontrollierte Ausbringung von Abwasser aus der Olivenölproduktion (OMW) kann sich sowohl positiv als auch negativ auf die Bodenqualität auswirken. Dabei stellt unter anderem die Verringerung der Benetzbarkeit des Bodens infolge der Ausbringung ein schwerwiegendes Problem dar. Die Auswirkungen der Ausbringung von Abwässern aus der Olivenölproduktion auf Böden zu charakterisieren und die Mechanismen zu untersuchen, die in Verbindung mit der Veränderung der Qualität der organischen Substanz in Abhängigkeit der klimatischen Bedingungen zu einer verringerten Benetzbarkeit des Bodens führen, war Ziel dieser Arbeit. Zu diesem Zweck wurden in Form einer Screening-Studie die Qualität der organischen Bodensubstanz sowie positive und negative Effekte unkontrollierter Ausbringungen bestimmt. Anschließend wurde ein OMW-behandelter, toniger Lehmboden bei vier unterschiedlichen Bodenfeuchten- und Temperaturen inkubiert und ein Feldexperiment in Israel durchgeführt, um die Auswirkungen der OMW-Ausbringung in Abhängigkeit der klimatischen Bedingungen zu untersuchen. Im Fokus stand dabei die Hypothese, dass unter nass-heißen Bedingungen aufgrund eines zügigen Abbaus der organischen Substanz kaum negative Auswirkungen zu erwarten waren. Zur Überprüfung dieser Hypothese wurden neben allgemeinen Bodenparametern (pH, elektr. Leitfähigkeit, Gesamtkohlenstoff, löslicher organischer Kohlenstoff, spezifische UV-Absorption) phenolische Verbindungen, Kohlenstoffisotopenverhältnis, Wassereindringzeit und Kontaktwinkel sowie thermische Stabilität und Brennwert der labilen und stabilen Kohlenstofffraktion ermittelt.
Zusammenfassend wurde festgestellt, dass die verringerte Benetzbarkeit OMW-behandelter Böden entsprechend dem vorgeschlagenen Mechanismus von den klimatischen Bedingungen und damit dem Ausbringungszeitpunkt abhängt. Unter trocken-heißen Bedingungen war die Benetzbarkeit des Bodens sowohl im Feld als auch im Labor am stärksten beeinträchtigt. Die thermische Analyse zeigt, dass hierfür wahrscheinlich Substanzen der stabilen Kohlenstofffraktion mit erhöhtem Brennwert verantwortlich sind. Mit höherer Temperatur und insbesondere höherer Bodenfeuchte wurde ein zunehmender Abbau der organischen Substanz des OMW in Verbindung mit einer verbesserten Benetzbarkeit beobachtet. Jedoch kann eine zu intensive Bewässerung oder starker Niederschlag, z.B. im Winter, zu einer Auswaschung von phenolischen Inhaltsstoffen des OMW führen, welche eine Gefährdung des Grundwassers darstellen können.
Gleichzeitig hat eine Ausbringung positive Effekte auf den Boden, z.B. durch Zufuhr organischer und anorganischer Nährstoffe. Aufgrund der Ergebnisse stellt die kontrollierte Ausbringung von OMW eine alternative, kostengünstige und nachhaltige Abfallverwendung in Form von Dünger dar. Jedoch sollte, anstatt des bisherigen Ausbringungszeitraumes Winter, das OMW gelagert und erst nach dem letzten Niederschlag am besten unter regelmäßiger Bewässerung ausgebracht werden, um negative Auswirkungen auf den Boden zu vermeiden und von den positiven Effekten zu profitieren.
Im Institut MTI Mittelrhein wird untersucht, wie sich Training und Erfahrung auf die Bewegung und Bewegungsplanung im Sport auswirken. Im Rahmen dieser Untersuchungen soll das Bewegungsverhalten eines Kletterers an einer Sportkletterwand analysiert werden. Das Ziel der Arbeit ist es, die Bewegungen eines Kletterers in Videoaufnahmen zu segmentieren und markerbasiert zu detektieren. Die segmentierten Marker aus jedem Bild werden mit einem Trackingverfahren über die Zeit verfolgt und die Bewegungsspuren in einem geeigneten Format für die Bewegungsanalyse-Software Simi Motion exportiert, um dort weitere Analysen zu ermöglichen.
Das Grundwasser unterliegt zahlreichen Nutzungen, gleichzeitig ist es Lebensraum einer artenreichen, hoch angepaßten Fauna. Verunreinigungen des Grundwassers mit Kontaminationen unterschiedlichsten Ursprungs stellen eine wachsende Problematik dar. Für das Monitoring von Altlastflächen werden bisher überwiegend physiko-chemische Methoden eingesetzt. Als weitere Möglichkeit bietet sich ein grundwasserfaunistisch begründetes Monitoring an. Da Freilanduntersuchungen über das Auftreten und die Verteilung von Grundwasserfauna in Altlastflächen bisher fehlen, widmet sich die vorliegende Dissertation dieser Thematik. Ein grundsätzliches Problem grundwasserfaunistischer Untersuchungen ist das Fehlen standardisierter Sammelmethoden. Daher erwies es sich als notwendig, die für die Untersuchung der Altlastflächen optimale Sammelmethode zu identifizieren. Insoweit liefert ein vorangehender Methodenvergleich die Grundlage für das Altlasten-Projekt. Ziel des Methodenvergleichs war es herauszufinden, ob die in Kluftgrundwasserleitern im Vergleich mit Lockergesteinsleitern festgestellte Artenarmut und die meist niedrigen Abundanzen habitat- oder auch methodenbedingt sind. Unter Verwendung eines phreatobiologischen Netzsammlers, einer pneumatischen Kolbenhubpumpe (System NIEDERREITER) und eines Quellnetzes wurden im Naturraum Pfälzerwald 16 Grundwasser-meßstellen (je 8 in den Kluftaquiferen des Buntsandsteins und den sandig-kiesigen Aquiferen der Talauen) und 8 Quellen, sowie 4 Grundwassermeßstellen in der pfälzischen Rheinebene hydrochemisch und faunistisch beprobt. Die Grundwässer beider Naturräume unterschieden sich sowohl hydrochemisch wie auch in ihrer faunistischen Zusammensetzung signifikant voneinander. Aus methodischer Sicht zeigten alle Sammeltechniken, mit Ausnahme der Quellbeprobung, trotz gewisser Unterschiede, qualitativ vergleichbare Ergebnisse. Ziel des Hauptteils der Arbeit " dem Altlasten-Projekt " war die Gewinnung erster empirischer Daten über das Vorkommen und die Verteilung von Grundwasserfauna in Abhängigkeit von Altlasten. Des weiteren sollten über die Korrelation der Grundwasserfauna mit hydrochemischen Parametern und den Koloniezahlen erste Ansätze für eine bioindikative Eignung gefunden werden. Basierend auf den Ergebnissen des methodischen Teils wurden unter Verwendung des phreatobiologischen Netzsammlers fünf in der pfälzischen Rheinebene liegende Untersuchungsstandorte (sechs Einzelschäden), die Kontaminationen unterschiedlicher Art aufwiesen, untersucht. Dabei handelte es sich um drei militärische und zwei industrielle Altlasten sowie eine Hausmülldeponie. Insgesamt wurden 91 Meßstellen, die sich im Zustrom, direkt im Schaden sowie im Abstrom befanden, zweimalig beprobt. Trotz der ausgeprägten Heterogenität der untersuchten Altlaststandorte sowie geringer Arten- und Taxazahlen und Abundanzen weisen die Verteilungsmuster auf Sensitivitäten der Fauna gegenüber Grundwasserverunreinigungen hin. In bezug auf einzelne Schadstoffe (LCKW, PCE, AKW) deuten sich schadstoffspezifische Verteilungsmuster der Fauna an. Das abundanteste Taxon der Untersuchung - die Nematoda - traten an den LCKW / PCE- kontaminierten Standorten nur in geringsten Abundanzen auf, ebenso wie die Parastenocaridae (Crustacea). Oligochaeta und einzelne Cyclopoida-Arten (Crustacea) scheinen hingegen deutlich höhere Konzentrationen dieses Schadstoffs zu tolerieren. Eine gegensätzliche Faunenverteilung wurde an den AKW- kontaminierten Standorten beobachtet. Hier zeigten sich die Nematoda wesentlich toleranter als alle anderen Taxa, ebenso wie die Parastenocaridae. Hingegen traten die Oligochaeta und Cyclopoida oberhalb geringer Konzentrationen nur noch sporadisch auf. Die abundanteste Cyclopoida-Art der gesamten Untersuchung, Diacyclops languidoides, konnte in Anwesenheit von AKW nicht nachgewiesen werden.
Die bisherige Forschung zur Diagnosekompetenz hat trotz langjähriger Forschungstraditionen für die Praxis kaum relevante Befunde erbracht. Dies wurde in der vorliegenden Arbeit als Anlass für den Vorschlag genommen, diagnostische Kompetenz als reine Urteilsgenauigkeit, gemäß der Komponentenanalyse nach Cronbach (1955), zu erweitern. Mit der Einführung der Beobachtungskompetenz als einer weiteren Facette diagnostischer Kompetenz knüpft die vorliegende Studie zudem an der Forschung zu formativem Assessment an.
Die zentralen Fragen der Arbeit beziehen sich darauf, wie die beiden Facetten der diagnostischen Kompetenz Urteilsgenauigkeit und Beobachtungskompetenz von pädagogischen Fachkräften im Elementarbereich ausgeprägt sind, ob diese Facetten zusammenhängen und wie sie durch bereichsspezifische Fortbildungen und explizit durch verschiedene Fortbildungsansätze (Lehrgangs- vs. Lernwegsorientierung) verändert werden können. Untersucht wurden insgesamt 103 Erzieherinnen aus 21 Einrichtungen mit eigens für die Arbeit entwickelten Instrumenten (Fragebögen, Filmvignetten).
Zur Beantwortung der ersten Forschungsfrage, wie die bereichsspezifische diagnostische Kompetenz von Erzieherinnen hinsichtlich der Facetten Urteilsgenauigkeit und Beobachtungskompetenz ausgeprägt ist, zeigt sich, dass Erzieherinnen das Niveau ihrer Gruppe im Vergleich der Urteilsgenauigkeits-Komponenten am besten einschätzen können (Niveaukomponente), mit Tendenz zur Überschätzung. Auch die Wahrnehmung von Unterschieden zwischen den Kindern ihrer Gruppe gelingt ihnen gut (Personenkomponente), dabei neigen sie eher zu einer Überschätzung der Heterogenität. Wesentlich schwerer fällt es ihnen, spezifische Aufgabenschwierigkeiten im mathematischen Bereich korrekt einzuschätzen (Merkmalskomponente) und Unterschiede zwischen den Kindern im Hinblick auf einzelne Aufgaben (Wechselwirkungskomponente) zu beurteilen. Die Erzieherinnen sind jedoch sehr gut in der Lage, die Kinder entsprechend ihrer Leistungen in eine Rangreihenfolge zu bringen, wie es die Korrelationskomponente der Personenkomponente zeigt. Die Beobachtungskompetenz von Erzieherinnen zeigt sich in der Anzahl erkannter Fähigkeiten von Kindern während verschiedener Tätigkeiten mit mathematischem Bezug. Dabei wurde der Schwierigkeitsgrad der Beobachtung mittels Expertinneneinschätzung berücksichtigt. Die Erzieherinnen erkennen durchschnittlich die Hälfte der mathematischen Fähigkeiten von Kindern in verschiedenen komplexen Alltagssituationen bei mathematischen Tätigkeiten. Die zweite Forschungsfrage, ob es einen Zusammenhang zwischen der Urteilsgenauigkeit und der Beobachtungskompetenz gibt, kann klar beantwortet werden. Erwartungswidrig zeigt die vorliegende Untersuchung, dass die Facetten Urteilsgenauigkeit und Beobachtungskompetenz voneinander unabhängig sind. Damit konnte die Annahme, dass auf der einen Seite eine genaue summative Beurteilung auf einer Vielzahl kompetenter Einzelbeobachtungen beruht, auf der anderen Seite aber häufige gezielte Einzelbeobachtungen in ihrer Summe zu einem genaueren Gesamturteil führen, nicht bestätigt werden. Die dritte Forschungsfrage, ob eine bereichsspezifische Fortbildung von Erzieherinnen zur Verbesserung ihrer Urteilsgenauigkeit führt, muss verneint werden. Dagegen beeinflusst der Faktor Zeit (neun Monate zwischen Prä- und Posttest) die Fähigkeit der Erzieherinnen, Unterschiede zwischen den Kindern signifikant besser wahrzunehmen (Personenkomponente) und spezifische Aufgabenschwierigkeiten signifikant besser einzuschätzen (Merkmalskomponente). Damit verbessert sich auch die globale Urteilsgenauigkeit über die Zeit signifikant. Auf die Einschätzung des Leistungsniveaus der Gruppe (Niveaukomponente) sowie von Unterschieden zwischen den Kindern für einzelne Items (Wechselwirkungskomponente) hat jedoch auch der Faktor Zeit keinen signifikanten Einfluss.
Die vierte Forschungsfrage, ob die Unterschiede in der Veränderung der Urteilsgenauigkeit von Erzieherinnen davon abhängig sind, nach welchem Ansatz sie Kinder bereichsspezifisch fördern, lässt sich zusammenfassend verneinen. Die Art und Weise der bereichsspezifischen Förderung spielt keine Rolle für die Variabilität der Urteilsgenauigkeit von Erzieherinnen. Auch die Unterschiedlichkeit in den einzelnen Urteilsgenauigkeitskomponenten lässt sich nicht auf die Art der Fortbildung zurückführen.
Die fünfte Forschungsfrage, ob sich die Beobachtungskompetenz von Erzieherinnen durch eine bereichsspezifische Fortbildung beeinflussen lässt, kann aufgrund einer signifikanten Zunahme der Beobachtungskompetenz nach nur zwei Fortbildungstagen bejaht werden. Damit wird die These gestützt, dass eine Fortbildung zur bereichsspezifischen Förderung für eine gezielte und damit fokussiertere Wahrnehmung früher bereichsspezifischer Kompetenzen bedeutsam ist, selbst wenn sie nicht explizit auf diagnostische Kompetenz, sondern allgemein auf Förderung ausgerichtet ist
Die sechste Forschungsfrage zielt auf Veränderungen der Beobachtungskompetenz von Erzieherinnen in Abhängigkeit von Fortbildungen in verschiedenen bereichsspezifischen Förderansätzen ab. Für eine Zunahme der Beobachtungskompetenz, so zeigt sich, spielt der bereichsspezifische Ansatz, welcher der Fortbildung zugrunde gelegt ist, keine Rolle.
Die vorliegende Studie ist die erste Arbeit, die sowohl Beobachtungskompetenz (Forschung zu formativem Assessment) als auch Urteilsgenauigkeit (Accuracy-Forschung) anhand derselben Stichprobe untersucht. Trotz des im Ergebnis nicht nachgewiesenen Zusammenhangs zwischen Urteilsgenauigkeit und Beobachtungskompetenz stellt die Studie für die zukünftige Forschung bedeutsame Hinweise für die weitere Untersuchung der Facetten diagnostischer Kompetenz bereit.
Im Hinblick auf den frühpädagogischen Kontext zeigt die vorliegende Arbeit zum einen, dass ein ökologisch valides Treatment (Fortbildung) in einem Umfang von zwei Tagen implizit zu einer Verbesserung diagnostischer Kompetenzen führen kann. Zum anderen wird hier erstmalig im deutschsprachigen Raum die Messung der Urteilsgenauigkeit unter vollumfänglicher Erfüllung eines auf Hoge und Coladarci (1989) beruhenden Anforderungsprofils durchgeführt. Ein weiteres Alleinstellungsmerkmal dieser Studie ist die erstmals mit einer Mindestanzahl von vier Einschätzungen pro Erzieherin unter Berücksichtigung der Kontaktzeiten zwischen Erzieherinnen und Bezugskindern erfolgte Erhebung der Urteilsgenauigkeit von Erzieherinnen.
Hybrid systems are the result of merging the two most commonly used models for dynamical systems, namely continuous dynamical systems defined by differential equations and discrete-event systems defined by automata. One can view hybrid systems as constrained systems, where the constraints describe the possible process flows, invariants within states, and transitions on the one hand, and to characterize certain parts of the state space (e.g. the set of initial states, or the set of unsafe states) on the other hand. Therefore, it is advantageous to use constraint logic programming (CLP) as an approach to model hybrid systems. In this paper, we provide CLP implementations, that model hybrid systems comprising several concurrent hybrid automata, whose size is only straight proportional to the size of the given system description. Furthermore, we allow different levels of abstraction by making use of hierarchies as in UML statecharts. In consequence, the CLP model can be used for analyzing and testing the absence or existence of (un)wanted behaviors in hybrid systems. Thus in summary, we get a procedure for the formal verification of hybrid systems by model checking, employing logic programming with constraints.
Das Zeitfenster ab 1964 bis heute verzeichnet einen Geburtenrückgang. Diese Tatsache hat insofern negative Auswirkung, als dass es für die sozialen Sicherungen Gefahren birgt, nicht mehr finanziert werden zu können. Des Weiteren ist über einen langen Zeitraum mit einem Fachkräftemangel zu rechnen, sollte sich der Geburtenrückgang weiterhin fortsetzen.
In dieser Ausarbeitung wird der Zusammenhang zwischen dem Bildungsgrad der Frau und dem Anteil kindeloser Frauen und der Anzahl an Kindern untersucht. Sollte dabei ein Zusammenhang bestehen, so müssten vor allem Akademikerinnen den höchsten Anteil an Kinderlosigkeit und die niedrigste Kinderzahl je Frau aufweisen. Im Umkehrschluss müssten Frauen mit Hauptschulabschluss oder Frauen ohne Schulabschluss die niedrigsten Anteile an Frauen ohne Kinder und die höchsten Zahlen an Kindern je Frau vermelden.
Das Ziel dieser Bachelorarbeit ist es ein Schätzkonzept zu validieren, das im Rahmen eines Projektes auf der Universität Koblenz-Landau entwickelt wurde, um den Anteil kinderloser Frauen und die Anzahl an Kindern je Frau zu schätzen
Für die Entwicklung sicherer Softwaresysteme erweitert UMLsec die UML durch die Definition von Sicherheitsanforderungen, die erfüllt sein müssen. In Klassendiagrammen können Attribute und Methoden von Klassen Sicherheitseigenschaften wie secrecy oder integrity haben, auf die nicht authorisierte Klassen keinen Zugriff haben sollten. Vererbungen zwischen Klassen erzeugen eine Komplexität und werfen die Frage auf, wie man mit der Vererbung von Sicherheitseigenschaften umgehen sollte. Neben der Option in sicherheitskritischen Fällen auf Vererbungen zu verzichten, gibt es im Gebiet der objektorientierten Datenbanken bereits viele allgemeine Recherchen über die Auswirkungen von Vererbung auf die Sicherheit. Das Ziel dieser Arbeit ist es, Ähnlichkeiten und Unterschiede von der Datenbankseite und den Klassendiagrammen zu identifizieren und diese Lösungsansätze zu übertragen und zu formalisieren. Eine Implementierung des Modells evaluiert, ob die Lösungen in der Praxis anwendbar sind.
Für diese Studienarbeit können zwei Schwerpunkte genannt werden. Einerseits sollten verschiedene Verfahren zur Fluchtpunktschätzung aus Wissenschaft und Forschung eingänglich untersucht und erörtert werden. Dies im Hinblick auf ein detaillierteres Analyseverfahren, das die Möglichkeit bietet, mehrere Gebäudeseiten automatisiert entzerren zu können. Andererseits sollten sich die gewünschten Verbesserungen in das bereits vorhandene Gesamtsystem des Projekts Ornamente eingliedern, um so das Endergebnis der Klassifizierung von Ornamenten zu verbessern. Daraus entstanden die in Kapitel 1 genannten Hauptaufgaben. Neben dem TAM-Verfahren, dass im vorhandenen Teilprozess der Entzerrung bereits zum Einsatz kam, wurde in Kapitel 2 das Verfahren KHT nach Tuytelaars beschrieben. Ansätze der KHT waren im Bestehenden zu erkennen, wie sich während der anfänglichen Einarbeitung in das Themengebiet Fluchtpunktfindung und dem Gesamtsystem der Ornamentklassifizierung herausstellte. Allerdings waren einige Aspekte, wie sie von Tytelaars et al. in [TGPM98] zur KHT beschrieben sind, nicht enthalten. Der erste Lösungsansatz zur Entzerrung von mehreren Gebäudeseiten bestand darin, die KHT unabhängig von allen Prozessen des Gesamtsystems zu implementieren, um so die Genauigkeit der Fluchtpunktdetektion zu erhöhen. Mit dieser detaillierteren Fluchtpunktfindung sollte das bereits bestehende Modul der Entzerrung zu besseren Ergebnissen führen. Um die Entzerrung für sich alleine nutzen zu können, musste sie vorerst von der vorhandenen Fluchtpunktschätzung isoliert werden. Während der in Kapitel 3 beschriebenen Umstrukturierung und Trennung der beiden Prozesse wurde das eigentliche Problem der Verarbeitung von mehreren Gebäudeseiten erkannt. Nicht die Fluchtpunkte und die Verfahren für ihre Detektion sind ausschlaggebend, weitere Ebenen im Bild erkennen zu können. Vielmehr verhindert dies der fehlende Rückschluss von extrahierten Kanten auf die Lage, Größe und Anzahl der im Bild vorhandenen Gebäudeseiten. Wären hierzu Informationen bekannt, könnten, wie auch für ornamentale Bereiche, ROIs festgelegt werden, die mit einer hohen Wahrscheinlichkeit eine abgegrenzte Gebäudeseite beinhalten. Um diese daraufhin zu entzerren, kann das jetzt isolierte Programm zur Entzerrung genutzt werden. Die KHT umzusetzen, wurde als Lösungsweg verworfen und der eigene Lösungsansatz "Level of Detail" aus Kapitel 3 wurde entwickelt. Die entstandenen Programme wurden wie gefordert in PUMA, der "Programmierumgebung für die Musteranalyse" eingebunden. Wie die Test aus Kapitel 4 jedoch zeigen, konnte damit keine Verbesserung erzielt werden.
Im Rahmen dieser Arbeit wurde die Effizienz von Anfragen an OWL-Ontologien und Anfragen an TGraphen evaluiert. Dabei wurden die zwei unterschiedlichen Transformationsverfahren Schema-Aware Mapping und Simple Mapping getestet. Bei der Transformation einer OWL-Ontologie in einen TGraphen über Schema-Aware Mapping werden ein TGraph-Schema und ein TGraph erzeugt. Im Gegensatz zu Schema-rnAware Mapping besitzt Simple Mapping ein schon vordefiniertes TGraph-Schema, das für alle OWLOntologien anwendbar ist. Damit wird bei der Transformation einer OWL-Ontologie in einen TGraphen über Simple Mapping nur ein TGraph - kein TGraph-Schema - generiert. Mit den Verfahren wurden entsprechend auch SPARQL-Anfragen in GReQL-Anfragen transformiert.
Das Ziel dieser Bachelorarbeit ist es, die diskrete Fouriertransformation, die diskrete Kosinustransformation und die Hadamard-Walsh Transformation im Kontext der Bildverarbeitung zu vermitteln und diese unter ausgewählten Gesichtspunkten zu vergleichen. Hierfür soll allgemein das Wissen für den aus der linearen Algebra stammenden Begriff der Transformation gefördert werden und auf die Bildverarbeitung übertragen werden. Anschließend wird das Verständnis für die Fouriertransformation sukzessive aufgebaut und mit den beiden weiteren Transformationen verknüpft. Abschließend werden die Transformationen verglichen und ihr Nutzen innerhalb der Bildverarbeitung erläutert.
Diese Arbeit erarbeitet einen Vergleich verschiedener medizinischer Medikamenten-Dispenser. Ein Medikamenten-Dispenser ist eine Vorrichtung, die es erlaubt von einer größeren Menge Medikamente, eine kleinere zu entnehmen. Um den Vergleich durchzuführen wurden 15 Anforderungen an diese Dispenser gefunden. Der Einnahmeerleichterung sind die Anforderungen "Organisation", "Erinnerung" und "Ergonomie" zugeordnet. Zur Compliance, also Therapietreue, gehören "Compliance", "Anpassbarkeit", "Selektivität", "Persistenz", "Funktionalität", "Richtigkeit" und "Spezifität/Sensitivität". Damit stellt diese Kategorie die meisten Anforderungen. Die Kategorie Aufbewahrung sammelt "Hygiene", "Darreichungsformen" und "Robustheit". Schließlich wurden die Anforderungen "Übersichtlichkeit" und "Datenschutz" den sonstigen Anforderungen zugeordnet. Anschließend wurden verschiedene Dispenser-Konzepte zunächst vorgestellt und darauf auf die Erfüllung der Anforderungen hin analysiert. Es wurden folgende Konzepte analysiert: Tablettendose, Wochendispenser, Blister, Schlauchbeutel, MEMS, OtCM, elektronischer Dispenser, App. Nach der Analyse konnten die Dispenser miteinander verglichen werden. Es stellte sich heraus, dass alle Konzepte Mängel aufweisen. Daher entwickelte der Autor ein eigenes Konzept, welches alle Anforderungen bis auf zwei gut bis sehr gut erfüllt. Damit stellt es das mächtigste Konzept dar.
Diese Arbeit behandelt einen Vergleich verschiedener Algorithmen zur Vorhersage der Bewegung einer Person bei der Ausführung einer sportlichen Aktivität. Als Grundlage für die Vorhersage dienen Bildströme, welche mittels zweier Hochgeschwindigkeitskameras aufgezeichnet wurden. Im Laufe der Arbeit werden Vor- und Nachteile der umgesetzten Ansätze theoretisch erläutert und anschliessend an einer Reihe von Messergebnissen nachgewiesen. Für die Messungen wurde eine Anwendung eingesetzt, welche ebenfalls im Rahmen der Arbeit entwickelt wurde. Neben realen Aufnahmen, wurden zusätzlich synthetische Bildfolgen betrachtet, um Erkenntnisse über das Verhalten der betrachteten Algorithmen unter optimalen Bedingungen zu erlangen.
Diese Arbeit vermittelt einen grundlegenden Überblick über die Funktionsweise und Implementierung von aktuellen Voxelisierungsstrategien auf der GPU. Neben etablierten Voxelisierungsverfahren mithilfe der Rasterisierungspipeline werden neue Möglichkeiten mithilfe von GPGPU-Programmierung untersucht. Auf der Basis der Programmiersprache C++ und der Grafikbibliothek OpenGL wird die Implementierung mehrerer Verfahren erläutert.rnDie Verfahren werden hinsichtlich der Performanz und der Qualität der Voxelisierung verglichen und im Bezug auf mögliche Anwendungsfälle kritisch bewertet. Weiterhin werden zwei Beispielanwendungen beschrieben, in denen die Verwendung einer voxelisierten Szene eine Erweiterung von bestehenden Echtzeitgrafikverfahren ermöglicht. Zu diesem Zweck werden die Konzepte und die Implementierungen von Transmittance Shadow Mapping und von Reflective Shadow Mapping, das um voxelbasierte Umgebungsverdeckung erweitert wird, erläutert. Abschließend wird die anhaltende Relevanz von Voxelisierung in einem Ausblick auf aktuelle Forschungen und weitere Anwendungen und Erweiterungen der vorgestellten Verfahren aufgezeigt.
Die Entwicklung von Algorithmen im Sinne des Algorithm Engineering geschieht zyklisch. Der entworfene Algorithmus wird theoretisch analysiert und anschließend implementiert. Nach der praktischen Evaluierung wird der Entwurf anhand der gewonnenen Kenntnisse weiter entwickelt. Formale Verifffizierung der Implementation neben der praktischen Evaluierung kann den Entwicklungsprozess verbessern. Mit der Java Modeling Language (JML) und dem KeY tool stehen eine einfache Spezififfkationssprache und ein benutzerfreundliches, automatisiertes Verififfkationstool zur Verfügung. Diese Arbeit untersucht, inwieweit das KeY tool für die Verifffizierung von komplexeren Algorithmen geeignet ist und welche Rückmeldungen für Algorithmiker aus der Verififfkation gewonnen werden können.Die Untersuchung geschieht anhand von Dijkstras Algorithmus zur Berechnung von kürzesten Wegen in einem Graphen. Es sollen eine konkrete Implementation des Standard-Algorithmus und anschließend Implementationen weiterer Varianten verifffiziert werden. Dies ahmt den Entwicklungsprozess des Algorithmus nach, um in jeder Iteration nach möglichen Rückmeldungen zu suchen. Bei der Verifffizierung der konkreten Implementation merken wir, dass es nötig ist, zuerst eine abstraktere Implementation mit einfacheren Datenstrukturen zu verififfzieren. Mit den dort gewonnenen Kenntnissen können wir dann die Verifikation der konkreten Implementation fortführen. Auch die Varianten des Algorithmus können dank der vorangehenden Verififfkationen verifiziert werden. Die Komplexität von Dijkstras Algorithmus bereitet dem KeY tool einige Schwierigkeiten bezüglich der Performanz, weswegen wir während der Verifizierung die Automatisierung etwas reduzieren müssen. Auf der anderenrn Seite zeigt sich, dass sich aus der Verifffikation einige Rückmeldungen ableiten lassen.
Die vorliegende Arbeit beschäftigt sich mit der Verteilung großer virtueller Rechnernetze auf mehrere physische Hosts unter Verwendung der beiden Virtualisierungstools VNUML und EDIV. Dabei ist VNUML für die eigentliche Simulation des Netzwerks zuständig, während EDIV in erster Linie für die entsprechende Verteilung sorgt. Nach einer kurzen Erklärung grundlegender Begriffe und Konzepte aus dem Gebiet der Netzwerksimulation wird zunächst ausführlich auf die beiden erwähnten Virtualisierungstools eingegangen. Dies beginnt jeweils mit einer detaillierten Beschreibung hinsichtlich der korrekten Installation und Konfiguration, gefolgt von einer Demonstration der wichtigsten Funktionalitäten, wie das Starten oder Beenden einer Simulation. Auch auf das Erstellen eines geeigneten Netzwerkszenarios und auf die von EDIV bereitgestellten Skripte zur Überwachung dieser Szenarien wird in diesem Zusammenhang näher eingegangen. Um die vorgestellten Möglichkeiten der beiden Tools auch in der Praxis anwenden zu können, wird zum Schluss ein eigenes Netzwerkszenario entworfen und auf mehrere Rechner verteilt, sodass die verschiedenen Funktionen von EDIV vorgeführt und beschrieben werden können.
Die vorliegende Arbeit beschäftigt sich mit der Betrachtung der Rolle von Vertrauen zwischen den Kapitalnehmern und Kapitalgebern auf einer der größten Crowdfunding-Plattformen, Kickstarter. Kernthema ist die Beantwortung der Forschungsfragen, wie das Vertrauen zwischen den Kapitalgebern und Kapitalnehmern im Kontext von Crowdfunding entsteht, welche Faktoren das Maß von Vertrauen in dieser Beziehung beeinflussen und welche Signale für die Vertrauensbildung verantwortlich sind. Das Ziel dieser Arbeit besteht darin, das von Zerwas, Kilian und von Kortzfleisch 2015 vorgestellte konzeptuelle Modell der Einflussfaktoren von Vertrauen im Kontext von Crowdfunding aus Sicht der Kapitalgeber zu überprüfen und gegebenenfalls zu erweitern.
Auf Grundlage einer Literaturrecherche und qualitativer, leitfadenorientierter Interviews werden die gesammelten Daten diskutiert, bestehende Faktoren verifiziert und weiterführend neue Faktoren und Signale identifiziert, die die Bildung von Vertrauen auf Crowdfunding-Plattformen beeinflussen.
Als Ergebnis werden die Überarbeitung sowie Erweiterung des Ausgangsmodells um die neuen Faktoren geographische Nähe, Vermittlerqualität und Verständnis vom Konzept Crowdfunding vorgeschlagen. Anhand der Häufigkeit der Erwähnung und Relevanz der Faktoren und beeinflussenden Signale in den durchgeführten Interviews wird weiterführend eine Gewichtung der Einzelfaktoren vorgenommen. Abschließend werden Implikationen und Bedeutung für Wissenschaft und Forschung diskutiert.
Die Ausgabe von immer echter und realistischer aussehenden Bildern auf Bildschirmen ist heute ein wichtiger Bestandteil in der Konzeption, Präsentation und Simulation von neuen Produkten in der Industrie. Trotz der auch immer physikalisch echter werdenden Grafiksimulationen ist man bei der Ausgabe auf Bildschirme angewiesen, die einen limitierenden Faktor darstellen: Leuchtdichten in Simulationen gehen dabei weit über tatsächlich darstellbare Leuchtdichten von Monitoren hinaus. Das menschliche Auge ist hingegen in der Lage, einen großen Dynamikumfang zu sehen, sich an gegebene Beleuchtungsverhältnisse anzupassen und auch kleinste Unterschiede in der Helligkeit einer Szene wahrzunehmen. Für die Ausgabe solcher High-dynamic-Range-Bilder auf herkömmlichen Monitoren müssen sogenannte Tonemappingverfahren jene Bilder auf den darstellbaren Bereich reduzieren. Manche dieser Verfahren bedienen sich dabei direkt der Physiologie des Auges, um eine realistische Ausgabe zu erzeugen, andere dienen eher zur Stilisierung. Ziel dieser Studienarbeit ist die Entwicklung eines Tonemappingverfahrens, das ein vertrauenswürdiges Ergebnis liefert. Ein solches Ergebnis ist erreicht, wenn der Betrachter keine Unstimmigkeiten im Bild vorfindet, die der Realität widersprechen. Der Gesamteindruck soll dem entsprechen, was der Nutzer sehen würde, stünde er direkt neben der aufgenommenen Szene. Für eine abschließende Evaluation wurde insbesondere eine reale Boxszene am Computer nachmodelliert und gerendert. Neben einem HDR-Foto kann damit der neu entstandene Tonemapping-Operator untersucht und mit bereits vorhandenen Tonemappingverfahren verglichen werden. 13 Probanden haben an dieser Evaluation teilgenommen, um die Leistungsfähigkeit und Qualität zu bewerten.