Filtern
Erscheinungsjahr
- 2016 (86) (entfernen)
Dokumenttyp
- Dissertation (31)
- Ausgabe (Heft) zu einer Zeitschrift (19)
- Bachelorarbeit (13)
- Masterarbeit (13)
- Diplomarbeit (6)
- Konferenzveröffentlichung (2)
- Habilitation (1)
- Bericht (1)
Sprache
- Deutsch (50)
- Englisch (34)
- Mehrsprachig (1)
- Spanisch (1)
Schlagworte
- Vorlesungsverzeichnis (4)
- Raytracing (2)
- soil water repellency (2)
- Abwasser (1)
- Ad-hoc-Netz (1)
- Algorithmische Geometrie (1)
- Analytischer Hierarchieprozess (1)
- Animationsfilm (1)
- Archäologie (1)
- Articles for Deletion (1)
- Augmented Reality (1)
- Beaconless (1)
- Bedrohte Tiere (1)
- Begutachtung (1)
- Betriebspädagogik (1)
- Bewertungssystem (1)
- Big Five (1)
- Bildverarbeitung (1)
- Bildverstehen (1)
- Boden (1)
- Bounding Volume Hierarchie (1)
- Controlling (1)
- Core Self-Evaluations (1)
- Daphnia (1)
- Dialog (1)
- Diskurs (1)
- Dispositiv (1)
- Distanzfeld (1)
- Distributed Algorithm (1)
- Drahtloses Sensorsystem (1)
- Drahtloses vermachtes Netz (1)
- E-Participation (1)
- Ebener Graph (1)
- Echtzeit-Interaktion (1)
- Enterprise Architecture Framework (1)
- Entscheidungstheorie (1)
- Eurokrise (1)
- Evacuation modeling (1)
- Farbenlehre (1)
- Farbtheorie (1)
- Filmdarstellung (1)
- Filmfiguren (1)
- Filmgestalt (1)
- Finanzpolitik (1)
- Fiskalpolitik (1)
- Five Factor model (1)
- Flow decomposition (1)
- Foucault, Michel (1)
- Function Words (1)
- Führung (1)
- Gamebased (1)
- Gamebasiertheit (1)
- Genealogie (1)
- Geographic routing (1)
- Geometric spanner (1)
- Graph (1)
- Grundschule (1)
- Halbschatten (1)
- Haushaltspolitik (1)
- I-messages (1)
- IBM Bluemix (1)
- IT security analysis (1)
- IT-Security (1)
- Implizite Oberfläche (1)
- Indirekte Beleuchtung (1)
- Inhaltsanalyse (1)
- Kohärenz (1)
- Kommunikation (1)
- Komplexität / Algorithmus (1)
- Kultur (1)
- LIBS (1)
- Laserinduzierte Plasmaspektroskopie (1)
- Local algorithm (1)
- Macht (1)
- Maifisch (1)
- Management (1)
- Medialität (1)
- Medium (1)
- Messung der Ökoeffizienz (1)
- Metamodel (1)
- Meteor (1)
- Mustererkennung (1)
- Nachbarschaftsgraph (1)
- Netzwerktopologie (1)
- Nutzerzufriedenheit (1)
- OMW (1)
- Olivenölproduktion (1)
- Optimization (1)
- Planar graphs (1)
- Einbringen (1)
- Quantitative Inhaltsanalyse (1)
- Quasi unit disk graph (1)
- Rationalität (1)
- Ray Tracing (1)
- Reactive algorithm (1)
- Reference Model (1)
- Regieren (1)
- Rhein (1)
- Risiko (1)
- Robust Principal Component Analysis (1)
- Routing (1)
- Security Requirements (1)
- Semantic Web (1)
- Semantic Web Data (1)
- Servicepersonal (1)
- Southern Amazonia (1)
- Sozialgericht (1)
- Spektrale Bildgewinnung (1)
- Staatsschuldenkrise (1)
- Statistical Shape Model (1)
- Technology Acceptance Model (1)
- Tourism (1)
- Tourismus (1)
- Ultraschall (1)
- Umweltleistungsbewertung (1)
- Unit disk graph (1)
- Verteilter Algorithmus (1)
- Virtual Reality (1)
- Wanderfische (1)
- Wikipedia (1)
- Wireless sensor network (1)
- Wissen (1)
- Wäschereibranche (1)
- You-messages (1)
- Zeichentrickfilm (1)
- Zooplankton (1)
- Zusammenhängender Graph (1)
- area light (1)
- bait-lamina test (1)
- behavior of employers (1)
- biodegradation (1)
- cross-cultural psychology (1)
- decomposition (1)
- description logic (1)
- e-service quality (1)
- ecotoxicology (1)
- emic-etic (1)
- energetics (1)
- externe Repräsentationen (1)
- field experiment (1)
- flows over time (1)
- fluid disturbances (1)
- fungicide (1)
- greenhouse gases (1)
- identification of organization (1)
- internet of things (1)
- iot development platforms (1)
- kinematics (1)
- land use change (1)
- line space (1)
- media competence model (1)
- mobile phones (1)
- modeling (1)
- multikriterielles Bewertungssystem (1)
- olive mill wastewater (1)
- olive oil mill wastewater (1)
- personality characteristics (1)
- pesticide (1)
- phenolic compounds (1)
- privacy and personal data (1)
- privacy competence model (1)
- privacy protection (1)
- problemhaltige Textaufgaben (1)
- rationality (1)
- raytracing (1)
- reasoning (1)
- reputation of company (1)
- risk (1)
- security awareness (1)
- sensor data (1)
- social networks (1)
- social system (1)
- soft shadow (1)
- soils (1)
- soziales System (1)
- stationäre Pflege (1)
- stream (1)
- swarming (1)
- swimming behaviour (1)
- thermal analysis (1)
- traffic survey (1)
- virtual reality (1)
- water re-use (1)
- zooplankton (1)
- Öko-Effizienz (1)
- Ökoeffizienz (1)
Institut
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, wie eine repräsentative und aussagekräftige Vergleichbarkeit hinsichtlich der Nachhaltigkeitsleistung (Ökoeffizienz) von Unternehmen branchenunabhängig gewährleistet werden kann trotz der Problematik der Definition repräsentativer Bewertungskriterien der Nachhaltigkeit, sowie der Heterogenität der zu bewertenden Branchen. Bisherige Konzepte zu Umwelt- und Nachhaltigkeitsmanagementsystemen (z.B. EMAS, ISO 14000, ISO 26000, EMASplus), zur Umweltleistungsmessung sowie zur Nachhaltigkeitsbewertung und -berichterstattung (z.B. DNK, GRI) sind mit ihren branchenunabhängigen Formulierung zu allgemein gehalten, um für eine konkrete effizienzorientierte Messung nachhaltigen Wirtschaftens von Unternehmen geeignet zu sein.
Folglich besteht kein System zur Messung der Umweltleistung, um den Forschungsbedarf der Herstellung einer aussagekräftigen Vergleichbarkeit der Ressourcen- und Energieverbräuche der Betriebe einer heterogenen Branche zu begegnen. Angesichts dessen wurde im Rahmen der Arbeit eine allgemeine und branchenunabhängig anwendbare aber dennoch –spezifische Methodik zur Herstellung der Vergleichbarkeit von Unternehmen einer Branche hinsichtlich der Ressourcen- und Energieeffizienz entwickelt. Dabei stellt der Kern der Methodik die Generierung eines betriebsindividuellen Gesamtgewichtungsfaktors dar (GGF-Konzept), welcher als Operationalisierung der Vergleichbarkeit angesehen werden kann und damit der Problematik der Heterogenität begegnet. Die Ermittlung von Kriteriengewichtungen im Rahmen des GGF-Konzeptes kann in Analogie zu einem Entscheidungsproblem bei Mehrfachzielsetzung (Multi Criteria Decision Making – MCDM) gesehen werden, da mehrere Kriterien und Sub-Kriterien zueinander in Relation gesetzt werden mussten. Infolgedessen stellte sich der Analytische-Hierarchie-Prozess als das geeignete Verfahren im Rahmen der Methodikentwicklung heraus. Anwendung fand die Methodik in einem ersten empirischen Test anhand einer ausgewählten Stichprobe von 40 Wäschereibetrieben. Dabei zeigten die Ergebnisse auf, dass repräsentatives sowie aussagekräftiges betriebsindividuelles Benchmarking der Ressourcen- und Energieverbräuche völlig unterschiedlicher und bislang nicht vergleichbarer Betriebe möglich wurde. Hierfür mussten zunächst branchenspezifische repräsentative Bewertungskriterien der Ressourcen- und Energieeffizienz bestimmt werden. Abschließend konnten betriebsspezifische Brennpunkte identifiziert und somit Handlungsempfehlungen zur Optimierung der Ressourcen- und Energieeffizienz der Wäschereibetriebe abgeleitet werden, sodass eine zielorientierte Reduzierung des Ressourcen- und Energieverbrauchs folgen kann.
Die vorliegende Arbeit behandelt Techniken zur interakativen und physikalisch basierten Darstellung von Haaren für Computer-Generated Imagery (CGI). Dafür werden Techniken zur Simulation und Approximierung der Interaktionen von Licht mit Haar hergeleitet und vorgestellt. Des Weiteren wird beschrieben, wie Haare, trotz solch berechnungsintensiver Algorithmen, sehr interaktiv dargestellt werden können. Verfahren zur Berechnung von Schatten in Haaren sowie Ansätze zur effizienten Darstellung von Haar als transparente Geometrie werden ebenfalls vorgestellt. Einen Hauptschwerpunkt der Arbeit bildet dabei der DBK-Buffer, welcher im Rahmen dieser konzeptioniert, implementiert und evaluiert wurde. Mit Hilfe des DBK-Buffers ist es möglich tausende von transparenten Haaren sehr effizient darzustellen ohne auf Funktionalitäten der neusten Grafikkarten-Generation, oder sehr viel Videospeicher, angewiesen zu sein. Darüber hinaus wurde eine umfassende Evaluierung der beschriebenden Techniken bezüglich der visuellen Qualität, der Performanz und des Speicheraufwandes durchgeführt. Dabei wurde gezeigt, dass Haare nicht nur mit interaktiven, sondern sogar mit echtzeitfähigen Bildwiederholungsraten physikalisch basiert dargestellt werden können.
Die vorliegende Bachelorarbeit thematisiert eine durch die Eye-Tracking-Technologie gestützte Untersuchung mit dem E-Lern System Compass. Die Untersuchung fand in Form eines Experimentes statt, welches bei den Probanden die Fähigkeit der Erkennung der Subjekt- Verb-Kongruenz in deutschen Sätzen testen sollte. Ideengebend zu der Versuchskonstellation war eine ähnliche Studie im englisch sprachigen Raum.
Die Einbindung des E-Learning System Compass bezweckte dabei die Beobachtung des Lernverhaltens der Testpersonen. Ausgewertet und bewertet werden konnten die Versuchsreihen durch die Eye-Tracker Software, der während des Versuchs die Augenbewegungen der Testpersonen auf den gezeigten und erstellten Sätzen aufzeichnete und daraus messbare Daten erzeugte. Augenbewegungen wie Fixationen oder Regressionen auf bestimmte Stimuli wurden dabei erwartet und auch gehofft zu messen.
Das Ergebnis der Ausführungen zeigt eindeutig, dass Fehler in der Kongruenz zwischen Subjekt und Verb häufig gemacht werden und die Fehlerrate in Verbindung zur Satzlänge proportional ansteigt.
Virtueller Dirigent
(2016)
Ihm Rahmen einer Bachelorarbeit wurde eine "Virtual Reality"-Anwendung entwickelt. Ein Benuzter erhält die Möglichkeit die Rolle eines Dirigenten zu übernehmen und ein virtuelles Orchester zu leiten. Die Leitung erfolgt mit Hilfe von Handgesten. Mithilfe einer Evaluation der Anwendung wurden allgemeine Anforderungen an "Virtual Reality"-Spiele festgehalten.
This thesis presents novel approaches for integrating context information into probabilistic models. Data from social media is typically associated with metadata, which includes context information such as timestamps, geographical coordinates or links to user profiles. Previous studies showed the benefits of using such context information in probabilistic models, e.g.\ improved predictive performance. In practice, probabilistic models which account for context information still play a minor role in data analysis. There are multiple reasons for this. Existing probabilistic models often are complex, the implementation is difficult, implementations are not publicly available, or the parameter estimation is computationally too expensive for large datasets. Additionally, existing models are typically created for a specific type of content and context and lack the flexibility to be applied to other data.
This thesis addresses these problems by introducing a general approach for modelling multiple, arbitrary context variables in probabilistic models and by providing efficient inference schemes and implementations.
In the first half of this thesis, the importance of context and the potential of context information for probabilistic modelling is shown theoretically and in practical examples. In the second half, the example of topic models is employed for introducing a novel approach to context modelling based on document clusters and adjacency relations in the context space. They can cope with areas of sparse observations and These models allow for the first time the efficient, explicit modelling of arbitrary context variables including cyclic and spherical context (such as temporal cycles or geographical coordinates). Using the novel three-level hierarchical multi-Dirichlet process presented in this thesis, the adjacency of ontext clusters can be exploited and multiple contexts can be modelled and weighted at the same time. Efficient inference schemes are derived which yield interpretable model parameters that allow analyse the relation between observations and context.
Die folgende Arbeit zeigt eine Möglichkeit auf, Lokalisierung eines Objektes mittels Ultraschall zu realisieren. Dazu werden drei bis fünf im Raum verteilte Sensoren genutzt, um anhand von Distanzinformationen die Position eines Objekts relativ zu den Positionen der Sensoren zu bestimmen. Eine Besonderheit besteht dabei darin, dass die Sensoren nahezu beliebig in der Ebene verteilt sein können. Ihre Anordnung wird vom System in der Kalibrierungsphase mit Unterstützung des Anwenders ermittelt. Dabei dürften ein gleichseitiges Dreieck, ein Quadrat oder Pentagramm je nach Sensoranzahl die besten Ergebnisse liefern. Um die relative Bewegung in eine Absolute zu übertragen, findet eine Umrechnung in Meter anhand der Taktung der Mikrocontroller, des Prescalers des verwendeten Timers und der Schallgeschwindigkeit statt.