Filtern
Erscheinungsjahr
- 2009 (109) (entfernen)
Dokumenttyp
- Diplomarbeit (31)
- Dissertation (24)
- Ausgabe (Heft) zu einer Zeitschrift (20)
- Studienarbeit (20)
- Bachelorarbeit (9)
- Masterarbeit (3)
- Buch (Monographie) (1)
- Habilitation (1)
Schlagworte
- Vorlesungsverzeichnis (6)
- Computersimulation (3)
- Semantic Web (3)
- Akzeptanz (2)
- Automatische Klassifikation (2)
- Autonomes Robotersystem (2)
- Bildverarbeitung (2)
- Echtzeitsystem (2)
- Evaluation (2)
- Frau (2)
- Heilanstalt (2)
- High dynamic Range (2)
- Instant Messaging (2)
- Java (2)
- Modellfahrzeug (2)
- Objektverfolgung (2)
- Online-Befragung (2)
- Pflegeanstalt (2)
- Robotik (2)
- Schizophrenie (2)
- Semantic Desktop (2)
- Shader (2)
- Simulation (2)
- Software Engineering (2)
- Unterrichtsforschung (2)
- Werbung (2)
- Whiteboard (2)
- Wiimote (2)
- 3-D-Laserscannen (1)
- 3-D-Modell (1)
- 3D-Videospiel (1)
- ARIS (1)
- Abwasserreinigung (1)
- Achtsamkeit (1)
- Administration (1)
- Advanced Encryption Standard (1)
- Advertising (1)
- Aktionsart (1)
- Aktiver Wortschatz (1)
- Algorithmus (1)
- Alltäglichkeit (1)
- Ambulante Behandlung (1)
- Analyse (1)
- Analyse durch Synthese (1)
- Aneignung (1)
- Anhänger (1)
- Anstaltspsychiater (1)
- Anwendungsintegration (1)
- Anzeige (1)
- Architekturbewertung (1)
- Arzt-Angehörigen-Kommunikation (1)
- Aspekt <Linguistik> (1)
- Aufgabe (1)
- Aufgabenkultur (1)
- Augenblick-SDK (1)
- Austausch (1)
- Auszeichnungssprache (1)
- Außeralltäglichkeit (1)
- BPMS (1)
- Beleuchtungsverfahren (1)
- Benetzung (1)
- Benutzerprofil (1)
- Beta-Blocker (1)
- Bilderkennung (1)
- Bildsegmentierung (1)
- Bildsensor (1)
- Bildung (1)
- Bluetooth (1)
- Bodenwasser (1)
- Bordinstrument (1)
- Business English (1)
- Business Intelligence (1)
- CMS (1)
- CSCA (1)
- CSCW (1)
- CT-Datensätze (1)
- Casual Game (1)
- Charisma (1)
- Cheilolejeunea ; continental tropical Africa ; rainforest (1)
- Chiffrierung (1)
- Cicero (1)
- Cisco Catalyst 3500XL (1)
- Cognitive-behavioral group therapy (1)
- CollaborativeWriting (1)
- Coloskopie (1)
- Computer Supported Cooperative Work (1)
- Computerbased Communication (1)
- Computergraphik (1)
- Computermodell (1)
- Computerspiel (1)
- Computertomographie (1)
- Computerunterstützte Kommunikation (1)
- Conceptual Metaphor Theory (1)
- Coping (1)
- CosiMail (1)
- DRIFTS (1)
- Darmpolyp (1)
- Data compression (1)
- Datenanalyse (1)
- Datenkompression (1)
- Derrida (1)
- Desktop (1)
- Diagnoseunterstützung (1)
- Diagnosis assistance (1)
- Diffie-Hellman-Algorithmus (1)
- Diffusion (1)
- Displacement Mapping (1)
- Display (1)
- Dreidimensionales Modell (1)
- E-Mail (1)
- EEG (1)
- EMIL-S (1)
- Eating Disorder (1)
- Echtzeit Anwendung (1)
- Ehe (1)
- Einstellung (1)
- Elektroencephalographie (1)
- EmIL (1)
- Empfehlung (1)
- Empirical Research (1)
- Empirische Forschung (1)
- Empirische Sozialforschung (1)
- Enterprise Architecture (1)
- Enterprise Architecture Frameworks (1)
- Enterprise-Resource-Planning (1)
- Erstgebärende (1)
- Erweiterte Realität (1)
- Erweiterte Realität <Informatik> (1)
- Erziehung (1)
- Essstörung (1)
- Evaluierung (1)
- Experiment (1)
- Extension (1)
- FPIC (1)
- Fachdidaktik (1)
- Fahrsimulator (1)
- Fahrverhalten (1)
- Fahrzeug (1)
- Faktorenanalyse (1)
- Field programmable gate array (1)
- Flugkörper (1)
- Fluid Simulation (1)
- Fluid dynamics (1)
- Fluiddynamik (1)
- Foils <Programm> (1)
- Framework <Informatik> (1)
- Frameworks (1)
- Frei Programmierbares Kombinationsinstrument (1)
- Fremdsprachenlernen (1)
- Fremdsprachenunterricht (1)
- Funktionelle NMR-Tomographie (1)
- Funktionelle Störung (1)
- Fusion (1)
- GPU (1)
- GPU - Raycasting (1)
- GReTL (1)
- Gaps (1)
- Geburt (1)
- Geburtshaus (1)
- Gefäßanalyse (1)
- Geometry (1)
- Geometry-Shader (1)
- Gesundheitskommunikation (1)
- Gewinnspiel (1)
- Gewinnspielsendung (1)
- Gittererzeugung (1)
- Globale Beleuchtung (1)
- Grafikkarte (1)
- Graph Technology (1)
- GraphUML (1)
- Graphik-Hardware (1)
- Graphpipes (1)
- Gruppenarbeit (1)
- Habitus (1)
- Handlungsempfehlungen (1)
- Hausgeburt (1)
- Hebamme (1)
- Humus (1)
- Hydrophobie (1)
- Image (1)
- Individualisierung (1)
- Inpainting-Verfahren (1)
- Instructed Second Language Acquisition (1)
- Instruktionspsychologie (1)
- Interactive engagement (1)
- Interaktion (1)
- Interaktives Fernsehen (1)
- Interaktives Whiteboard (1)
- Internet (1)
- Interoperabilität (1)
- Islam (1)
- Iterative Closest Points (1)
- Iterative Dual Correspondences (1)
- JGraLab (1)
- Jabber (1)
- Jabber <Programm> (1)
- Just-in-Time Teaching (1)
- Kabel (1)
- Kalibrieren <Messtechnik> (1)
- Kalibrierung (1)
- Karrierefaktor (1)
- Katadioptrisches Stereosystem (1)
- Kausalanalyse (1)
- Klingenmünster (1)
- Klinische Psychologie (1)
- Kognitiv-behaviorale Gruppentherapie (1)
- Kognitive Linguistik (1)
- Kohärenzanalyse (1)
- Kollaboration (1)
- Konflikt (1)
- Konjugation (1)
- Kontaktwinkel (1)
- Kontextorientierung (1)
- Kriegsneurose (1)
- Kultur (1)
- Kundenmanagement (1)
- Lehr-Lern-Forschung (1)
- Leistungsbeurteilung (1)
- Leistungsmessung (1)
- Lendenwirbelsäule (1)
- Lernpsychologie (1)
- Lichttransport (1)
- Linguistische Gesprächsanalyse (1)
- Linux (1)
- Logistik (1)
- Lumbar Spine (1)
- MBS Model (1)
- Mann-Whitney (1)
- Markerloses Tracking (1)
- Matching-Verfahren (1)
- Mediator (1)
- Medienphilosophie (1)
- Medientheorie (1)
- Mehrkörpersystem (1)
- Mehrprozessorsystem (1)
- Meiofauna (1)
- Merkmalsbewertung (1)
- Merkmalsdetektion (1)
- Mesofauna (1)
- Metapher (1)
- Metric based Icp (1)
- Micro Finance (1)
- Mikroskopie (1)
- Misskonzepte (1)
- Modellbasiertes Tracking (1)
- Modellierung (1)
- Modelltransformation (1)
- Modulare Softwarearchitektur (1)
- Multiple somatoforme Symptome (1)
- Multivariable Statistik (1)
- Musteranalyse (1)
- Mustererkennung (1)
- NURBS (1)
- Nationalsozialismus (1)
- Navier"Stokes equations (1)
- Navier-Stokes-Gleichungen (1)
- Navigation (1)
- Networked Graphs (1)
- Netzwerksimulation (1)
- Nintendo Wii Fernbedienung (1)
- Norm (1)
- Normentstehung (1)
- OGRE (1)
- Oberflächeneigenschaft (1)
- Oberflächenstruktur (1)
- Object Recognition (1)
- Objektentfernung (1)
- Oktalbaum (1)
- Online-Überwachung (1)
- Open Source (1)
- Open Source 3D Graphics Engine (1)
- Optimismus (1)
- Optisches Mikroskop (1)
- Outsourcing (1)
- Ozonisierung (1)
- Partnerschaft (1)
- Passiver Wortschatz (1)
- Perfect (1)
- Perfekt (1)
- Perinatalbogen (1)
- Persönlichkeit (1)
- Pestizid (1)
- Petri-Netz (1)
- Petri-Netz-Theorie (1)
- Petri-Netze (1)
- Pfadverfolgung (1)
- Physik (1)
- Physikdidaktik (1)
- Physikengine (1)
- Physikunterricht (1)
- Planspiegel-System (1)
- Point Rendering (1)
- Pollenanalyse (1)
- Portfolio <Pädagogik> (1)
- Portfolioarbeit (1)
- Pose (1)
- Positive Peer Culture (1)
- Present Perfect (1)
- Primarstufe (1)
- Primus (1)
- Prozessanalyse <Prozessmanagement> (1)
- Prozessmanagement (1)
- Präkonzepte (1)
- Präsentation (1)
- Präsentisches Perfekt (1)
- Psychiatrie (1)
- Psychische Erkrankungen (1)
- Psychische Störung (1)
- Psychologie (1)
- Psychotherapie (1)
- RDF <Informatik> (1)
- RIP-MTI (1)
- RMIS (1)
- Radiales System (1)
- Randomisierte kontrollierte Therapieevaluation (1)
- Rangtest (1)
- Ratgeber (1)
- Ray tracing (1)
- ReDSeeDS-Project (1)
- Real-time computing (1)
- Rechnernetze (1)
- Reengineering (1)
- Regenwald ; Afrika ; Cheilolejeunea (1)
- Registrierung <Bildverarbeitung> (1)
- Regler (1)
- Ressourcen (1)
- Restrukturierung (1)
- Risikoanalyse (1)
- Risikomanagement-Informationssysteme (1)
- Riss (1)
- Rissmusteranalyse (1)
- Robotersystem (1)
- Router (1)
- Routing Information Protocol (1)
- Routing Information Protocol (RIP) (1)
- Routing Loops (1)
- Routing with Metric based Topology Investigation (RMTI) (1)
- SIMD (1)
- SOAMIG (1)
- SOMA (1)
- SPARQL (1)
- STP (1)
- Sattelkraftfahrzeug (1)
- Sattelzug (1)
- Scanmatching (1)
- Schlauch (1)
- Schleifenerkennung (1)
- Schutzprofil (1)
- Schwachstellen (1)
- Schwangerschaft (1)
- Sediment (1)
- Segmentierung (1)
- Selbsthilfe (1)
- Selbstwirksamkeit (1)
- Self-help (1)
- Semantisches Wiki (1)
- Serdar Ayalp (1)
- Service-Oriented Architectures (SOA) (1)
- Situiertes Lernen (1)
- Software (1)
- Software Development (1)
- Software techniques for object recognition (STOR) (1)
- Somatoform disorder (1)
- Somatoform symptoms (1)
- Somatoforme Störung (1)
- Spiel (1)
- Spielkonsole (1)
- Sprachliche Handlungsmuster (1)
- Sprachtheorie (1)
- Stresstheorien (1)
- Suat Algin (1)
- Subsurface Scattering (1)
- Südafrika (1)
- TGraph (1)
- Tageslichtprojektor (1)
- Tempus (1)
- Tense (1)
- Textur-Mapping (1)
- Thunderbird <Programm> (1)
- Time (1)
- Tod (1)
- Tone Mapping (1)
- Traceability (1)
- Transaction concept (1)
- Transaktion (1)
- Transaktionskonzept (1)
- Transform Feedback (1)
- Transformation (1)
- Trauer (1)
- Triangulierung (1)
- Tropfenform (1)
- Umfrage (1)
- Umkehrosmose (1)
- United Internet AG (1)
- Unternehmensarchitektur (1)
- Uses and gratifications approach (1)
- VDE (1)
- VDE-Switch (1)
- VHDL (1)
- VIACOBI (1)
- VLAN (1)
- VNUML (1)
- VOXEL (1)
- VTP (1)
- Vascular analysis (1)
- Verb (1)
- Verbal Aspect (1)
- Vergangenheitstempus (1)
- Verifikation (1)
- Verlust (1)
- Vermittlung (1)
- Vertex Buffer Object (1)
- Vertex Buffer Objekt (1)
- Video-Installation (1)
- Videospielentwicklung (1)
- Videoübertragung (1)
- Virtual Square (1)
- Virtual network user mode Linux (1)
- Virtualisation (1)
- Virtualisierung (1)
- Visualisierung von Verbformen (1)
- Visuelle Installation (1)
- Vocabulary (1)
- Vokabellernen (1)
- Volume Rendering (1)
- Volumen (1)
- Volumen-Rendering (1)
- Volumendaten (1)
- Volumenrendering (1)
- Volumenvisualisierung (1)
- Wavelet (1)
- Webcam (1)
- Weibliches Publikum (1)
- Weiterentwicklung (1)
- Weltkrieg <1939-1945> (1)
- Werbeform (1)
- Wii-Balance Board (1)
- Wiki (1)
- Wikipedia (1)
- Wilcoxon-Rangsummentest (1)
- Wirkfaktor (1)
- Wirkfaktoren (1)
- Wirtschaftsenglisch (1)
- Wolkensimulation (1)
- Workflow (1)
- World Wide Web (1)
- World of Warcraft (1)
- Wortschatz (1)
- X-Cosim (1)
- XMPP (1)
- XSD (1)
- XTPeer (1)
- Zeit (1)
- Zielverfolgung (1)
- Zufriedenheit (1)
- Zwangssterilisation (1)
- Zweiter Weltkrieg (1)
- acceptance (1)
- achievement assessment (1)
- adaptiver Unterricht (1)
- advertisements (1)
- alternative fromeworks (1)
- assignment-based philosophy (1)
- attitude (1)
- collaboration (1)
- concurrency (1)
- constraint logic programming (1)
- contact angle (1)
- context-sensitivity (1)
- deductive (1)
- diffusion (1)
- engine (1)
- evaluation (1)
- event model (1)
- event-based systems (1)
- experiment (1)
- factor analysis (1)
- game (1)
- groupwork (1)
- hybrid systems (1)
- hydrophobicity (1)
- inszeniertes Charisma (1)
- interactive (1)
- interaktiv (1)
- learning portfolio (1)
- legacy software (1)
- mann-whitney (1)
- mechanism of action (1)
- midwife (1)
- migration (1)
- multiprocessing (1)
- ontology (1)
- out-of-hospital birth (1)
- ozonation of beta blockers (1)
- ozone reactivity (1)
- pH-Wert (1)
- parallel computing (1)
- perinatal (1)
- physics (1)
- physics education (1)
- portfolio assessment (1)
- pregnancy (1)
- primary care (1)
- randomized controlled trial (1)
- real-time computing (1)
- repellency (1)
- reverse osmosis (1)
- risk assessment (1)
- schizophrene Frau (1)
- soil organic matter (1)
- soil pH (1)
- soil solution (1)
- soziale Konstruktion von Wirklichkeit (1)
- student portfolio (1)
- surface characteristics (1)
- teaching and learning research (1)
- verification (1)
- wastewater treatment (1)
- wettability (1)
- Ästuar (1)
- Ätiologie (1)
Institut
- Institut für Computervisualistik (39)
- Institut für Wirtschafts- und Verwaltungsinformatik (15)
- Fachbereich 4 (14)
- Institut für Informatik (14)
- Institut für Softwaretechnik (8)
- Institut für Management (4)
- Arbeitsbereich Biopsychologie, Klinische Psychologie und Psychotherapie (3)
- Institut für Erziehungswissenschaft (3)
- Institut für Integrierte Naturwissenschaften (3)
- Zentrale Einrichtungen (3)
- Institut für Anglistik und Amerikanistik (2)
- Institut für Germanistik (2)
- Institut für Umweltwissenschaften (2)
- Institut für naturwissenschaftliche Bildung (2)
- Arbeitsbereich Diagnostik, Differentielle und Persönlichkeitspsychologie, Methodik und Evaluation (1)
- Arbeitsbereich Kognitive Psychologie (1)
- Fachbereich 5 (1)
- Institut für Kommunikationspsychologie und Medienpädagogik (1)
- Institut für Psychologie (1)
- Institut für Pädagogik, Abteilung Pädagogik (1)
- Institut für Pädagogik, Abteilung Schulpädagogik/Allgemeine Didaktik (1)
- Institut für Soziologie und Politikwissenschaft (1)
- Institut für Sportwissenschaft (1)
- Institute for Web Science and Technologies (1)
In dieser Arbeit wird die Implementierung des SURF-Feature-Detektors auf der GPU mit Hilfe von CUDA detailliert beschrieben und die Ergebnisse der Implementation ausgewertet. Eine Einführung in das Programmiermodell von CUDA sowie in die Funktionsweise des Hesse-Detektors des SURF-Algorithmus sind ebenfalls enthalten.
This Thesis contributes by reporting on the current state of diffusion of collaboration information technology (CIT). The investigation concludes, with a high degree of certainty, that today we have a "satisfactory" diffusion level of some level-A CITs (mostly e-Mail, distantly followed by Audio Conferencing), and a "dissatisfactory" diffusion level of higher-level CITs (i.e. those requiring significant collaboration and cooperation among users, like Meeting Support Systems, Group Decision Support Systems, etc.). The potential benefits of the latter seem to be far from fully realised due to lack of user acceptance. This conclusion has gradually developed along the research cycle " it was suggested by Empirical Study I, and tested through Empirical Studies II and III. An additional, unplanned and rather interesting, finding from this study has been the recognition of large [mostly business] reporting on numerous Web 2.0 user-community produced collaboration technologies (most of them belonging to the category of "social software") and their metamorphosis from autonomous, "bottom-up" solutions into enterprise-supported infrastructures. Another contribution of this Thesis " again suggested by Empirical Study I, and tested through Empirical Studies II and III " pertains to the "process structure" of CIT diffusion. I have found that collaboration technology has historically diffused following two distinct (interdependent but orthogonal) diffusion paths " top-down (authority-based) and bottom-up. The authority-based diffusion path seems to be characterised by efforts aimed at "imposing" technologies on employees, the primary concern being to make sure that technology seamlessly and easily integrates into the organisational IT infrastructure. On the other hand, the bottom-up diffusion trail seems to be successful. The contribution of this investigation may be summarised as threefold: 1. This investigation consolidates most of the findings to date, pertaining to CIT adoption and diffusion, which have been produced by the CIT research community. Thus, it tells a coherent story of the dynamics of the community focus and the collective wisdom gathered over a period of (at least) one decade. 2. This work offers a meaningful framework within which to analyse existing knowledge " and indeed extends that knowledge base by identifying persistent problems of collaboration technology acceptance, adoption and diffusion. These problems have been repeatedly observed in practice, though the pattern does not seem to have been recognised and internalised by the community. Many of these problems have been observed in cases of CIT use one decade ago, five years ago, three years ago, and continue to be observed today in structurally the same form despite what is unarguably "rapid technological development". This gives me reason to believe that, at least some of the persistent problems of CIT diffusion can be hypothesised as "determining factors". My contribution here is to identify these factors, discuss them in detail, and thus tackle the theme of CIT diffusion through a structured historical narrative. 3. Through my contribution (2) above, I characterise a "knowledge-action gap" in the field of CIT and illuminate a potential path through which the research community might hope to bridge this gap. The gap may be operationalised as cognitive distance between CIT "knowledge" and CIT "action".
Point Rendering
(2009)
Das Ziel dieser Arbeit war es, bestehende Point Rendering Verfahren zu untersuchen und darauf aufbauend einen eigenen Point Renderer zu entwickeln. Mit diesem sollte dann die Anwendbarkeit auf weniger komplexe Modelle geprüft werden. Dabei galt es auftretende Probleme zu analysieren und gegebenenfalls Lösungsansätze zu finden.
The goal of this thesis was to develop an interactive cloud simulation based on physical laws from fluid and cloud dynamics that can be used to visualize the physical processes involved in the cloud formation process. Chapter 2 showed that a great number of cloud modeling methods already exist, both procedural and physically motivated. Since the simulation developed in this thesis is based on computational fluid dynamics, the most influential works in this field in relation to computer graphics were also identified. Next, the cloud formation process in the atmosphere was explained, demonstrating the connections between air pressure, temperature and humidity. The temperature distribution of the atmosphere was identified as the most significant factor in cloud formation, before two different kinds of cloud classifications were introduced. The following chapter was dedicated to formulating the previously described cloud formation process in terms of physics. It presented the Navier- Stokes equations of incompressible fluid motion as the method of describing the movement of air masses in the atmosphere and explained how they can be simplified. Furthermore, this chapter was used to introduce concepts from thermodynamics that are necessary for the description of cloud dynamics, and to present a water continuity model that defines the state changes of water in the atmosphere. It was also explained where and how the presented concepts abstract from reality. In chapter 5, it was first described how the cloud model was developed based on the concepts evaluated before, identifying the temperature, water vapor, cloud water, and velocity as the state variables necessary for a cloud simulation. Next, the unconditionally stable implicit semi-Lagrangian method for the solution of the Navier-Stokes equation was presented, and it was explained how the equations for the water continuity, latent heat, and buoyant force computations are solved. All the steps were then summarized and put into context by describing the simulation loop that is executed for every step of the cloud simulation. In the following, details were given about the simple rendering method for the clouds, and the visualization methods for the velocity field and the temperature were evaluated. Finally, the user interface that controls the parameters of the simulation was explained. Chapter six showed the results of the simulation of convective and stratus clouds and commented on the performance of the system.
"MoleARlert" entstand im Rahmen eines Projektpraktikums der AG Computergrafik, unter Leitung Herrn Prof. Müllers und Herrn Dipl.-Inf. Stefan Rilling, im Wintersemester 2008/2009. Das System wurde von insgesamt zwölf Studierenden der Universität Koblenz-Landau entwickelt. Inhalt dieser Studienarbeit ist neben der Beschreibung des Systems vor allem die Veränderungen, die vom Autor nach Abschluss des Projektpraktikums, an diesem vorgenommen wurden unter besonderer Berücksichtigung der Neu- und Weiterentwicklungen die dazu führten die Reife des Systems zu verbessern. Ein weiterer wichtiger Aspekt der Arbeit ist die Einbindung einer Webkamera in eine 3D-Engine in Echtzeit.
Zufriedenheitsstudie der Studierenden des FB 4 an der Universität Koblenz-Landau am Campus Koblenz
(2009)
Nachdem der Studiengang Informationsmanagement im Jahr 2000 am Campus Koblenz der Universität Koblenz-Landau als erster deutscher Studiengang im Bachelorsystem akkreditiert wurde, haben sich im Laufe der Zeit einige Dinge verändert. Dies führte zu einer Änderung der Prüfungsordnung im Jahre 2006. Hieraus ergaben sich einige Umstellungen im Studiengang Informationsmanagement. Da im Zuge des Bolognaprozesses auch die Studiengänge Informatik und Computervisualistik in das neue System gewandelt wurden, stellten sich auch hier die Studienbedingungen um. In den letzten Jahren ist es vermehrt dazu gekommen, dass die Studierenden des Fachbereichs Informatik (im weiteren auch Fachbereich 4, oder FB 4) unzufrieden mit der augenblicklichen Situation am Campus Koblenz sind. Diese Unzufriedenheit scheint auf unterschiedlichen Ursachen zu beruhen. Da eine Unzufriedenheit innerhalb der Studierenden ein negatives Bild darstellt, ist es für eine Universität wünschenswert, wenn die Lehrenden eines Fachbereichs wissen, welche Einschätzungen die Studierenden hinsichtlich Ihres Studienfachs haben. Daher ist es von hoher Bedeutung, im Sinne der Qualitätssicherung, die Meinungen der Studenten über das Lehrkonzept sowie die einzelnen Studienfächer des Fachbereichs 4 am Campus Koblenz der Universität Koblenz-Landau zu evaluieren. Durch die Befragung der Studierenden kann somit eine Ergänzung zu der seit einiger Zeit durchgeführten Lehrveranstaltungsevaluation gebildet werden. Ziel dieser Arbeit ist es, das Meinungsbild im Fachbereich Informatik an der Universität Koblenz-Landau am Campus Koblenz zu ergründen. Anhand der Ergebnisse der Evaluation, welche im Wesentlichen von den Erfahrungen und Meinungen der Studierenden abhängig sind, können weiterführende Kenntnisse zur Verbesserung und Sicherung der Qualität von Studium und Lehre erlangt werden. Auf diese Weise erhält der Fachbereich Informatik den Stand des wahrgenommenen Profils nach außen und kann somit überprüfen, ob dieses mit den selbstgesetzten Zielvorstellungen übereinstimmt. Die Evaluation soll außerdem dazu beitragen, die eigenen Stärken und Schwächen hinsichtlich der Lehrveranstaltungen und Studiengänge zu erarbeiten sowie den Lehr- und Studien-betrieb transparenter zu gestalten. Durch diese Ergebnisse kann der Studienablauf optimiert und eine Basis für die Weiterentwicklung der Lehre geschaffen werden. Ebenfalls gilt es eventuelle Unterschiede in der Wahrnehmung der Studiensituation einzelner Studiengänge zu ermitteln, da durch verschiedene Ausrichtungen der Studierenden andere Meinungen hinsichtlich des Lehrbetriebs entstehen können. Des Weiteren gilt es dieses Meinungsbild auch innerhalb der Studiengänge zu differenzieren, damit die verschiedenen Abschlüsse, für welche die Studierenden eingeschrieben sind, herausgefiltert werden können. Ein weiterer Punkt den eine solche Evaluation mit sich führt, ist die Chance, die eigenen Kontrollmechanismen zu überprüfen und zu verbessern, damit Strategien entwickelt werden können, um die oben erwähnte Qualität der Lehre zu sichern. Somit soll neben der Darstellung der aktuellen Situation auch eine Handlungsempfehlung für den Fachbereich 4 erarbeitet werden. Die entstandene Umfrage soll so ausgelegt werden, damit weitere Befragungen im Sinne einer Panelforschung in Folgesemestern durchgeführt werden können. Hiermit soll festgestellt werden, ob sich im Laufe der Zeit Veränderungen zwischen den einzelnen Umfragen ergeben haben.
Kurzfassung Theorien, Szenarien, Vermutungen und Annahmen lassen sich in den Sozialwissenschaften seit geraumer Zeit mittels computergestützter Simulation analysieren, erhärten oder entkräften. Im Feld der Simulationsumgebungen gibt es eine Vielzahl unterschiedlicher Softwarelösungen. Das Projekt EmIL hat zum Ziel eine Simulationsumgebung zu erschaffen, die einen Schritt weiter geht als die bisher etablierten Lösungen. So soll in dieser Simulationsumgebung namens EmIL-S die Möglichkeit geschaffen werden Normentstehung zu analysieren. Dies wird durch eine Auftrennung der Simulationsumgebung in verschiedene Bereiche erreicht. Diese Diplomarbeit beschreibt die Konzepte die hinter diesem Projekt stehen und stellt einen lauffähigen Prototyp für diese Simulationsumgebung zur Verfügung. Die Erstellung dieses Prototypens, das hierfür zugrunde liegende Szenario und alle verwendeten Komponenten werden detailliert in dieser Arbeit beschrieben. Auch werden die mittels dieses Prototypens gewonnen Erkenntnisse dargelegt und analysiert. Im Zuge dieser Beschreibungen werden konzeptionelle sowie technische Fehler an der Simulationsumgebung aufgezeigt und Lösungs- bzw. Verbesserungsvorschläge dargelegt. Diese Arbeit kann auch als Leitfaden für die Erstellung von Simulationen mittels EmIL-S hilfreich sein.
Normen entstehen in jeder Gemeinschaft. Sie sind in der Lage, abseits von Gesetzbüchern und Vertragswerken, für ein rücksichtsvolles Zusammenleben zu sorgen. Dabei haben sie die Fähigkeit zur Anpassung und sind das Durchgangsprodukt eines sich ewig erneuernden Widerstreits zwischen erfahrungsbasierten Erwartungen, die das Handeln bestimmen und Rückmeldungen der Außenwelt, die zu neuen Erfahrungen werden. Gesetzestexte dagegen, die ursprünglich den Versuch darstellten, solche Normen mit der weitesten Verbreitung, festzuhalten und somit das Leben des Einzelnen zu vereinfachen, besitzen durch ihre Statik eine viel geringere Rückkopplung; werden darüber hinaus, sobald der Urzusammenhang mit Normen weitgehend vergessen ist, zum Spielball von Machtinteressen und entfremden sich so vom Normempfinden des Einzelmenschen. Für Normen gilt das "Panta rhei", welches voraussetzt, daß lebendige Einzelwesen ihre Träger sind. Der Versuch die Norm abzutrennen, bspw. durch Niederschrift muss also immer ein Versuch bleiben, der höchstens angenähert zum Erfolg führt. Nicht zuletzt wegen der Unschärfe die dadurch entsteht, daß obwohl wir von einer Norm sprechen, in jedem Einzelnen dem sie bekannt ist, doch wieder eine Abwandlung der generellen Norm existiert und bei ihm, auch nur auf den Zeitpunkt der Erhebung beschränkt, existiert. Somit ist die Simulation von Normentwicklung sicherlich eine schwierige Aufgabe, die allerdings bei Erfolg wichtige Aufschlüsse über das Menschenwesen in der Gesellschaft bringen kann. Wenn das Verständnis über Selbstregulierung dadurch verbessert werden kann, besteht die Hoffnung einen Impuls dafür zu geben, Selbstregulierung auch häufiger den Vortritt vor Regulierung zu lassen. Die Aufgabe, Normentwicklung zu simulieren, stellt sich das EMIL Projekt: "The main technological aim of the project is to construct a simulator for exploring and experimenting norm-innovation. The forecasted impact of the project is to contribute to the regulation of ecommunities by handing out a simulator for the emergence of new norms in complex social systems."1 "While the simulator will be designed as a general-purpose tool, some specific study cases will be selected as so to provide the necessary grounding parameters. Eine agentenbasierte Simulation, die für jeden Agenten über ein komplexes Gedächtnis von bereits gehaltenen Normen verfügt und Lernalgorithmen, die nach Interaktion einen Normenwandel einleiten, sollen das Ziel erreichbar machen. Die vorliegende Arbeit ist eine der ersten Implementationen mit EMIL und soll Impulse für eine Verbesserung der Simulationssoftware geben. Das hier vorgestellte Szenario basiert auf dem Verhalten von Mikrofinanzgruppen.
Zielsetzung Ziel der Diplomarbeit ist die Erforschung und Evaluation verschiedener multimodaler Interaktions- und Präsentationstechniken mit der Nintendo Wii Fernbedienung. Der zentrale Ansatz besteht darin, die verschiedenen alternativen Ein- und Ausgabemöglichkeiten der Nintendo Wiimote für Multimediapräsentationen im Bereich Bildung und Lehre nutzbar zu machen. Gesucht ist eine möglichst benutzerfreundliche Kombination verschiedener Präsentationslösungen in einem Eingabegerät, zu einem Bruchteil der Kosten existierender Lösungen. WiinterAct Um die Verbindung zwischen den multimodalen Interaktionsmöglichkeiten der Nintendo Wii Fernbedienung und den gewünschten Präsentationstechniken am Computer herzustellen, wurde die Software WiinterAct entwickelt. Mit Hilfe von WiinterAct lässt sich eine beliebige Präsentationssoftware über die Bedienknöpfe der Wiimote oder per Gestenerkennung steuern. Zusätzlich wurden alternative Mauszeigermanipulationsmöglichkeiten implementiert. So kann der Mauszeiger per interaktiver Laserpointer Metapher oder über ein interaktives Whiteboard auf Basis der Wiimote bewegt werden. Die hierfür nötige 4-Punkt-Kalibrierung wurde dabei stark vereinfacht. Neben einer intuitiven Visualisierung der Accelerometer- und Infrarotdaten aus der Wiimote wurde ferner eine Demoapplikation (FittsLaWii) zum Messen der Eingabegeschwindigkeit und Benutzerfreundlichkeit verschiedener Interaktionsmethoden bzw. Interaktionsgeräten entwickelt. Fazit Zusammenfassend lassen sich die Ergebnisse der Arbeit in viele andere Bereiche der Mensch-Computer-Interaktion übertragen.
Dieses Dokument legt den Standard für die Transformation von grUML-Schemas (GraphUML, [BHR+09]) nach XSD (XML Schema Definition) fest und ist im Rahmen des Arbeitspakets 5.2 "Prototypische SOAMIG-Parser und -Unparser realisieren" im SOAMIG-Projekt entstanden. Das Ziel ist der Austausch von TGraphen (typisierten, attributierten, angeordneten, gerichte Graphen [ERW08]) über XML-Dokumente. Zur Spezifikation des Austauschformats wird XSD eingesetzt. Dies erlaubt eine Validierung der XML-Instanzen auf syntaktischer Ebene. Der Ausgangspunkt ist ein gegebenes Schemas in grUML-Notation1, welches nach XSD transformiert werden soll. Mit der generierten XSD existiert ein Beschreibungsmittel für Graph-Instanzen in XML. Die dadurch beschriebenen XML-Dokumente sind flach, d.h. alle Elemente sind direkt dem root-Element untergeordnet.
This paper proposes model-driven techniques to extend IBM- SOMA method towards migrating legacy systems into Service-Oriented Architectures (SOA). The proposal explores how graph-based querying and transformation techniques enable the integration of legacy assets into a new SOA. The presented approach is applied to the identification and migration of services in an open source Java software system.
The STOR project aims at the development of a scientific component system employing models and knowledge for object recognition in images. This interim report elaborates on the requirements for such a component system, structures the application area by identifying a large set of basic operations, and shows how a set of appropriate data structures and components can be derived. A small case studies exemplifies the approach.
An empirical study to evaluate the location of advertisement panels by using a mobile marketing tool
(2009)
The efficiency of marketing campaigns is a precondition for business success. This paper discusses a technique to transfer advertisement content vie Bluetooth technology and collects market research information at the same time. Conventional advertisement media were enhanced by devices to automatically measure the number, distance, frequency and exposure time of passersby, making information available to evaluate both the wireless media as well as the location in general. This paper presents a study analyzing these data. A cryptographic one-way function protects privacy during data acquisition.
Pose-Tracking
(2009)
Die bildbasierte automatische Bestimmung der Pose, d. h. der Position und Blickrichtung, einer Kamera in derWelt, ist eine relevante, aber immer noch unzureichend gelöste Aufgabe im Rechnersehen. In dem diesem Bericht zugrunde liegenden Projekt werden höhere markante Merkmale in den Bildern sicherer lokalisiert, sowie deren semantische Signifikanz vom Rechner bestimmt. Eine Posebestimmung wird durch eine Registrierung der elementaren Bestandteile dieser markanten Merkmale im Bild mit Merkmalen im 3-D-Modell erreicht. Dazu werden neue Algorithmen zur Detektion, Lokalisation und Registrierung der markanten Merkmale entwickelt bzw. vorhandene Algorithmen weiter verbessert. Modelle, wie sie aus der Rekonstruktion von Mehrfachansichten entstehen, werden durch weitere Semantik angereichert. Als Anwendungsszenario wird die Posebestimmung auf dem Campusgelände unter Verwendung von Bildern und einem semantischen CG-Modell des Campus gewählt. Die allgemeinen Verfahren werden an diesem Beispiel getestet und ihre Tragfähigkeit wird in Experimenten belegt. Im modularen System entstehen problemunabhängige Einzelbausteine zur Detektion markanter Merkmale und zur 3-D-Rekonstruktion und Posebestimmung aus Merkmalen, Punkten und Linien. Damit wird belegt, dass eine robuste Detektion markanter Merkmale möglich ist und zu einer effektiven Rekonstruktion und Posebestimmung auch in teilweise wenig strukturierten Außengebieten genutzt werden kann.
In der vorliegenden Arbeit wurden Benetzungseigenschaften zweier stark anthropogen beeinflusster Böden in Abhängigkeit von Einflussfaktoren wie Wassergehalt, pH, Trocknungs- und Benetzungstemperatur untersucht. Ziel war es die Prozesse und Mechanismen, die zu Veränderungen der Benetzungseigenschaften von Böden führen, besser zu verstehen. Erkenntnisse über diese Prozesse und Mechanismen lassen zum einen Rückschlüsse auf das generelle Verhalten von organischer Bodensubstanz zu, können zum anderen aber auch helfen, vorsorgliche Maßnahmen zu ergreifen um Bodenhydrophobie zu verhindern oder deren negative Effekte zu reduzieren. Anhand der Zeit- und Temperaturabhängigkeit der Spreitung von liegenden Tropfen (TISED) auf hydrophoben und benetzbaren Bodenproben beider Standorte wurde die Hypothese getestet, dass der Benetzungsprozess durch chemische Reaktionen kontrolliert wird. Mithilfe von DRIFT (Diffuse Reflectance Infrared Fourier Transform) Spektren wurde überprüft, ob unterschiedliche Trocknungs-bedingungen (Temperatur, Dauer, Luftfeuchte) zu Unterschieden in der Anzahl hydrophober und hydrophiler funktioneller Gruppen in den äußeren Molekülschichten führen die sich im Grad der Benetzungshemmung widerspiegeln. Durch künstliche pH-Wert Änderung über die Gas¬phase konnte die pH-Wert Abhängigkeit der Benetzungshemmung unabhängig vom Wassergehaltseinfluss beider Standorte verglichen werden. Die beiden Standorte weisen extreme Unterschiede in der Art der Benetzungshemmung auf und sind dadurch beispielhaft für die Bandbreite der möglichen Ursachen und Mechanismen der Benetzungs-hemmung in Böden. Die Ergebnisse der Untersuchungen zur Temperatur- Wassergehalts- und pH-Abhängigkeit der Benetzungshemmung aus dieser Arbeit im Vergleich mit Ergebnissen vorhergehender Arbeiten lassen sich am besten mit jeweils einem konzeptionellen Modell pro Standort zur Natur der Benetzungshemmung erklären: Am Standort Tiergarten werden die Benetzungseigenschaften vermutlich durch mizellartige Anordnung amphiphiler Substanzen an der Oberfläche der organischen Bodensubstanz bestimmt, die abhängig vom Gehalt wasserlöslicher amphiphiler Substanzen, dem pH Wert und der Ionenstärke in der Bodenlösung im Verlaufe der Trocknung zu einer unterschiedlichen Orientierung der hydrophilen funktionellen Gruppen führt. Bei niedrigen pH-Werten und hoher Ionenstärke herrschen schwache Abstoßungskräfte zwischen den hydrophilen Gruppen, diese können aggregieren und hydrophobe Molekülketten sind nach außen gerichtet. Bei höheren pH-Werten und niedrigerer Ionenstärke sind die abstoßenden Kräfte zwischen den hydrophilen Gruppen groß und führen zu einer Aggregation hydrophober Gruppen, wobei die hydrophilen Gruppen nach der Trocknung nach außen gerichtet sind und für eine bessere Benetzbarkeit sorgen. Am Standort Buch sind chemische Reaktionen zur Benetzung nötig. Aufgrund der starken Wassergehaltsabhängigkeit der Benetzungshemmung könnte es sich dabei um Hydrolysereaktionen handeln, die säurekatalysiert reversible wassegehaltsabhängige Gleichgewichtsreaktionen und im Basischen irreversibel sind. Die beiden Modelle können eine Vielzahl von Beobachtungen erklären, die im Verlaufe dieser Untersuchung aber auch in vorhergehenden Untersuchungen gemacht wurden. Die Ergebnisse dieser Untersuchungen und ihr Vergleich mit vorherigen Untersuchungen auf denselben Standorten zeigten, dass Benetzungshemmung in Böden durch eine Vielzahl von Faktoren und Prozessen beeinflusst ist, die sowohl synergistisch als auch antagonistisch wirken können. Welche Faktoren den größten Einfluss ausüben bzw. welche Prozesse die vorherrschenden sind, hängt von lokalen Größen wie der Art des Mineralbodens und der organischen Bodensubstanz ab, die wiederum dem Einfluss von Klima, Textur, Topografie, Vegetation und der Nutzungsgeschichte unterliegen.
Auswirkungen verschiedener Werbeformen im Internet auf Einstellung, Erinnerung und Kaufabsicht
(2009)
Die vorliegende Bachelorarbeit untersucht anhand eines Experiments die Auswirkungen dreier Online-Werbeformen (Banner, Streaming Ad und Interstitial) auf die Einstellung, Erinnerung und Kaufabsicht. Sie gibt eine Einführung in die Internetwerbung und die untersuchten Werbeformen sowie einen Überblick über die drei theoretischen Untersuchungsschwerpunkte. Das Experiment wurde während einem Online-Fragebogen durchgeführt. Es nahmen 358 Probanden teil. Die erhobenen Daten wurden mittels Korrelationsmatrizen und der univariaten Varianzanalyse auf Differenzen geprüft.
Im Rahmen dieser Arbeit wurden die zeitbewerteten Prädikat/Transitions-Netze (Z-Pr/T-Netze) zur Modellierung, Simulation und Verifikation sicherheitskritischer Echtzeitsysteme entwickelt. Z-Pr/T-Netze integrieren Konzepte zur Modellierung temporärer Zusammenhänge und sind darüber hinaus mittels der Berechnung von S- und T-Invarianten sowie der Identifikation von Traps und Co-Traps strukturell analysierbar. Die Eignung von Z-Pr/T-Netzen zur Modellierung, Simulation und Verifikation komplexer Systeme aus dem Anwendungsbereich sicherheitskritischer Echtzeitsysteme wird anhand des Earliest-Deadline-First-Protokolls (EDF) und des Priority-Inheritance-Protokolls (PIP) belegt. Es erfolgt daher eine Modellierung des EDF und PIP mittels Z-Pr/T-Netzen sowie eine Verifikation für das EDF und PIP basierend auf der strukturellen Analyse der korrespondierenden Z-Pr/T-Netze. Die Anwendbarkeit struktureller Analyseverfahren zur Verifikation des EDF und PIP in Verbindung mit der nicht zu unterschätzenden Komplexität eben dieser belegen die Anwendbarkeit von Z-Pr/T-Netzen zur Modellierung, Simulation und Verifikation komplexer Systeme aus dem Anwendungsbereich sicherheitskritischer Echtzeitsysteme.
Die Visualisierung von Volumendaten findet unter anderem in der Medizin, bei der Abbildung von Geodaten oder bei Simulationen ihre Anwendung. Ein effizientes Verfahren zur Darstellung von Volumendaten bietet das Raycasting, das durch die hohe Leistung von Consumerhardware hervorragende Qualität und große Flexibilität in Echtzeit ermöglicht. Beim Raycasting-Verfahren werden Strahlen durch ein Volumen verfolgt und anhand (regelmäßiger) Samples entlang des Strahles Farbund Opazitätswerte bestimmt. "Ray Textures" [Raspe et al. 2008] sind ein Konzept zur Steuerung verschiedener Strahlparameter durch das Einzeichnen beliebiger Bereiche auf einer Textur. Der bisherige Ansatz ist jedoch softwarebasiert und umfasst nur einen begrenzten Funktionsumfang. Ziel dieser Studienarbeit ist eine eigenständige Implementation eines GPU-Volumen-Raycasters und die Umsetzung des RayTexture Ansatzes komplett auf der GPU. Im Vordergrund steht dabei die Unterstützung (nahezu) beliebiger Pinselformen und -modi, das Mapping der 2D-Interaktion auf das 3D-Rendering und die Steuerung weiterer Strahlparameter in Echtzeit. Die Schwerpunkte der Studienarbeit sind im Einzelnen die Implementation eines GPUVolumen- Raycasters, die Umsetzung des Ray Texture Ansatzes komplett auf der GPU, die Vorstellung der Ergebnisse anhand mehrerer Beispielszenarien und die Dokumentation der Ergebnisse.
Das Projekt Ziel der Studienarbeit war, eine physikalisch basierte Echtzeitsimulation eines volumetrischen Fluids in Form einer Rauchentwicklung auf der GPU zu realisieren und diese in eine Echtzeitanwendung zu integrieren. Motivation Mit Hilfe von Fluidsimulationen lassen sich einige der faszinierendst anzuschauenden Naturphänomene wie Rauch, Wolken oder auch Feuer und Wasser realistisch darstellen. Ausserdem könnten mit physikalischbasierten Fluidsimulationen eine große Fülle neuer Interaktionsmöglichkeiten innerhalb einer simulierten Welt realisiert werden. Wasser könnte realistisch fließen und Gegenstände mit sich reißen oder ganze Landschaften überfluten, Wind- und Luftströmungen könnten Segelschiffe antreiben oder sogar zerstörerische Wettereffekte wie Tornados simulieren etc... Die Fluidsimulation Der Rauch kann um Objekte im Fluidvolumen strömen, auf Temperaturunterschiede reagieren und dynamisch beleuchtet werden. Die Fluidsimulation nutzt dabei einen rasterbasierten Ansatz um die Navier-Stokes Gleichungen zu lösen und Partikel durch das Volumen zu transportieren. Objekte können voxelisiert werden und den Fluss im Fluidvolumen beeinflussen. Eine Temperatursimulation sorgt für eine realistische Rauchentwicklung, in dem Partikel, die sich von eine Wärmequelle entfernen zu Boden fallen. Der Rauch kann zudem durch die approximierte Simulation von Licht-Streuungseffekten (scattering) dynamisch und realitätsnah in Echtzeit beleuchtet werden Für eine möglichst artefaktfreie dreidimensionale Visualisierung des Volumens kommt als Rendering-Verfahren View-aligned Volume Slicing zum Einsatz. Ergebnis Das Ergebnis der Arbeit zeigt, Fluidsimulationen lassen sich heute mit Hilfe der GPU in Echtzeit in erstaunlicher Qualität darstellen und sogar in Echtzeitanwendungen integrieren. Es wurde neben der Fluidsimulation ein OpenGL-Renderer als Echtzeitanwendung entworfen, um die Möglichkeiten der Integration einer Fluidsimulation in eine solche Anwendung zu demonstrieren. In dem Programm können zudem zahlreiche Parameter der Fluidsimulation zur Laufzeit manipuliert und gespeichert werden. Der Nutzer kann sich so mit den vielfältigen Möglichkeiten und faszinierenden Effekten einer Fluidsimulation vertraut machen.
Der RIPMTI-Algorithmus wurde entwickelt um die Schleifenerkennung in Rechnernetzen zu verbessern. Das Count-To-Infinity-Problem (kurz: CTI) führt dazu, dass ein Netzwerk nur sehr langsam in einen konvergenten Zustand gelangt. Der Hopcount-Wert 16, der als künstliche Beschränkung des CTI eingeführt wurde, beschränkt leider auch die maximale Topologietiefe eines Netzwerkes. Diese Arbeit soll zeigen wie sich eine schrittweise Erhöhung des Hopcount-Wertes und darüber hinaus die Änderung der Updatezeiten jedes Routers auf die Konvergenzzeiten unterschiedlicher Netzwerk-Szenarios auswirkt.