Refine
Year of publication
- 2012 (111) (remove)
Document Type
- Part of Periodical (29)
- Doctoral Thesis (23)
- Diploma Thesis (22)
- Bachelor Thesis (21)
- Master's Thesis (11)
- Study Thesis (4)
- Conference Proceedings (1)
Keywords
- Vorlesungsverzeichnis (7)
- Customer Relationship Management (3)
- Akkreditierung (2)
- Android <Systemplattform> (2)
- DOCHOUSE (2)
- E-Government (2)
- Fallstudie (2)
- IBM Lotus Quickr (2)
- Petri-Netze (2)
- Tablet PC (2)
- probability propagation nets (2)
- 101companies (1)
- 18. Jahrhundert (1)
- API Analysis (1)
- API Migratiom (1)
- Ad-Hoc Routing (1)
- Africa (1)
- Afrika (1)
- Agriotes spp. (1)
- Aktualisierung (1)
- Ambulante Psychotherapie (1)
- Android (1)
- Android 2 (1)
- Android 3 (1)
- Android 4 (1)
- App (1)
- App <Programm> (1)
- ArcGIS (1)
- Archivierung (1)
- Argumentation (1)
- Aspect-orientation (1)
- Aspekt-Orientierung (1)
- Auditing (1)
- Ausbreitung (1)
- Automatisches Beweisverfahren (1)
- B2B (1)
- BPMN (1)
- Backtrack (1)
- Befragungsinstrument (1)
- Beispiel (1)
- Benutzerverhalten (1)
- Beschreibungslogik (1)
- Bewertungskriterien (1)
- Bioassay (1)
- Bodenfeuchtesimulation (1)
- Bärlappe (1)
- Bürgerliches Drama (1)
- C-Programmierung (1)
- CamInSens (1)
- Cheops (1)
- Cloud Computing (1)
- Commitment <Management> (1)
- Computer (1)
- Computersimulation (1)
- Computerspiel (1)
- Congestion Control (1)
- Content Management (1)
- Core Ontology on Multimedia (COMM) (1)
- Criteria Matrix (1)
- Daphnia longispina (1)
- Daphnia longispina complex (1)
- Daphnia longispina-Komplex (1)
- Design Pattern (1)
- Destiny (1)
- Dienstleistungsproduktivität (1)
- Distributed Environments (1)
- Drahtwürmer (1)
- Dramengestalt (1)
- Dramenschluss (1)
- Dyadische Interaktion (1)
- Dynamische Geometrie (1)
- E-Hyper Tableau (1)
- E-KRHyper (1)
- E-Learning (1)
- E-Partizipation (1)
- E-Procurement (1)
- ECMS 2012 (1)
- Echtzeitsystem (1)
- Edellaubmischwälder (1)
- Einstellung (1)
- Einstellungen gegenüber bestimmten Filmeigenschaften (1)
- Ekel (1)
- Electronic Government (1)
- Elektrischer Servomotor (1)
- Emil (1)
- Enterprise 2.0 (1)
- Enterprise Information Management (1)
- Entwurfsmuster (1)
- European Conference on Modelling and Simulation (1)
- Expertise (1)
- Expertiseentwicklung (1)
- Farnpflanzen (1)
- Ferns (1)
- Filmbewertung (1)
- Forschungslandkarte (1)
- Framework (1)
- Freiheitsgrad (1)
- Fremdeinschätzung (1)
- Fusarium spp. (1)
- Führungskraft (1)
- GPGPU (1)
- Galerucinae (1)
- Genetische Variabilität (1)
- Genetischer Fingerabdruck (1)
- Gerechtigkeit (1)
- Germany (1)
- Gesangverein (1)
- Gesprächsanalyse (1)
- Good Government (1)
- Grundschule (1)
- Gruppentherapie (1)
- Hambacher Fest (1)
- Handelsvertretung (1)
- Hedonic (1)
- Hedonisch (1)
- Hirschzunge (1)
- Historisierung (1)
- Hochschulbindung (1)
- Hypertableaux (1)
- IAT (1)
- Identifikation (1)
- Implicit Association Test (1)
- Informatik (1)
- Interaktion (1)
- Jakob Heinrich Lützel (1)
- Java (1)
- Java <Programmiersprache> (1)
- Johann Ludwig Dacqué (1)
- Johann Schwager (1)
- Justification (1)
- Kinematik (1)
- Kommunikationsprotokoll (1)
- Kommunikative Kompetenz (1)
- Kompetenz (1)
- Kompetenzmessung (1)
- Konsistenz. Psychologie (1)
- Kriterium (1)
- LMX (1)
- Laie (1)
- Lehrerbildung (1)
- Lehrerprofessionalisierung (1)
- Linguistik (1)
- Linked Open Data (1)
- Literaturwissenschaft (1)
- Logik (1)
- Ludwig Heydenreich (1)
- Lunaria (1)
- Lycophytes (1)
- Maschinelles Sehen (1)
- Mathematik (1)
- Mikrocontroller AVR (1)
- Mikrosatelliten-DNA (1)
- Mindestlohn (1)
- Minimum wage (1)
- Mobile BI (1)
- Mobile Business Intelligence (1)
- Modell (1)
- Monolepta (1)
- Movie evaluation criteria (1)
- Musikverein (1)
- Männerchor (1)
- Nagios (1)
- Nationalbewegung (1)
- Natura 2000 (1)
- Natural Feature Tracking (1)
- Netlogo (1)
- Network Monitoring (1)
- Network Simulation (1)
- Netzwerksimulation (1)
- Netzwerküberwachung (1)
- Nutzererleben (1)
- OCR (1)
- ODRL (1)
- Objective-C (1)
- Ohrgeräusch (1)
- Online-Befragung (1)
- Online-Self-Assessment (1)
- Ontology alignment (1)
- Optische Zeichenerkennung (1)
- Oriental region (1)
- PHP (1)
- Parallelmanipulator (1)
- Petrinetz (1)
- Pfalz (1)
- Pharmakokinetik (1)
- Philipp Walter (1)
- Phytophthora infestans (1)
- Policy Language (1)
- Polystichum (1)
- Populationsgenetik (1)
- Pragmatic (1)
- Pragmatisch (1)
- Praxiswissen (1)
- Problemlösen (1)
- Proceedings (1)
- Product choice (1)
- Produktbewertung (1)
- Produktentscheidung (1)
- Produktwahl (1)
- Provenance (1)
- Prozedurale Synthese (1)
- Pteris (1)
- Pulsweitenmodulation (1)
- Qualität (1)
- RCT (1)
- Rahmenmodell (1)
- Rechnernetz (1)
- Rechtfertigung (1)
- Rechtfertigung <Philosophie> (1)
- Registratur (1)
- Repast (1)
- Research Map (1)
- Revision (1)
- Revolution <1848> (1)
- Rezeptionsforschung (1)
- Route Planning (1)
- Routenplanung (1)
- Routing (1)
- Sales Ageny (1)
- Satelliten-DNS (1)
- Schema Information (1)
- Schlussfolgern (1)
- Schulleitung (1)
- Selbstbeobachtung (1)
- Selbsteinschaetzung (1)
- Selbsteinschätzung (1)
- Selbstmord (1)
- Selbsttötung (1)
- Serielle Schnittstelle (1)
- Simulation (1)
- Skalenkonstruktion (1)
- Skalenvalidierung (1)
- Smartphone (1)
- Software-Customizing (1)
- Softwareentwicklung (1)
- Softwarespezifikation (1)
- Softwarewartung (1)
- Stakeholder (1)
- Stakeholder-Beteiligung (1)
- Stakeholderanalyse (1)
- Staukontrollmechanismen (1)
- Stewart-Plattform (1)
- Stomp (1)
- Systematik (1)
- Sängerfest (1)
- TCP/IP (1)
- Taxonomy (1)
- Temporale Datenhaltung (1)
- Tesseract (1)
- Textaufgaben (1)
- Theater (1)
- Tokens (1)
- Tool Evaluation (1)
- Toxikologische Bewertung (1)
- Translation (1)
- Umfrage (1)
- University (1)
- User experience (1)
- Virtual Networks (1)
- Visualisierung (1)
- Web 2.0- basierte Stakeholderplattform (1)
- Web Analytics (1)
- Web Analytics Framework (1)
- Web Mining (1)
- Web-application framework (1)
- Web-programming technologies (1)
- Wikipedia (1)
- Wildtiere (1)
- Wirksamkeit (1)
- Xcode (1)
- agent-based model (1)
- agentenbasierte Modellierung (1)
- aquatic ecotoxicology (1)
- archiving (1)
- argumentation (1)
- attitudes towards specific movie features (1)
- automatic behavioral cues (1)
- automatisierte Videoüberwachung (1)
- clonal diversity (1)
- communication competency (1)
- competence-development (1)
- competence-measurement (1)
- computer (1)
- computer science (1)
- description logic (1)
- design thinking (1)
- deutsche Hochschulen (1)
- disgust sensitivity (1)
- distinct object identifiers (1)
- dynamic geometry (1)
- effect assessment (1)
- entrepreneurial design thinking (1)
- entrepreneurial thinking (1)
- entrepreneurship education (1)
- ethnic conflicts (1)
- ethnische Konflikte (1)
- example (1)
- expansion (1)
- faceted search (1)
- genotyping error (1)
- hazard prediction (1)
- hypertableaux (1)
- iOS (1)
- iOS 5 (1)
- iOS-SDK (1)
- implicit-explicit consistency (1)
- klonale Diversität (1)
- leader-member exchange (1)
- leaf beetles (1)
- mathematics (1)
- metadata formats (1)
- metadata standards (1)
- microsatellite DNA (1)
- microsatellite analysis (1)
- mobile devices (1)
- multimedia metadata (1)
- online survey (1)
- online-self-assessment (1)
- population genetics (1)
- practical knowledge (1)
- primary school (1)
- priority effects (1)
- priority-Effekte (1)
- procedural content generation (1)
- quality (1)
- scale construction (1)
- scale validation (1)
- school principal (1)
- selbstgenerierte Repräsentationen (1)
- shiq (1)
- simulation of soil moisture (1)
- social media data (1)
- speech (1)
- standardized measure (1)
- survey (1)
- systematics (1)
- teacher-education (1)
- teams (1)
- theoretical framework (1)
- tool-integration (1)
- toxicokinetics (1)
- unique name assumption (1)
- verbal interaction (1)
- verbale Interaktion (1)
- video games (1)
- virtual goods (1)
- virtuelle Netze (1)
- wildlife management (1)
- wireworms (1)
- Übersetzung (1)
- Überwachung (1)
- Überwachungstechnik (1)
Institute
- Fachbereich 4 (67)
- Zentrale Einrichtungen (16)
- Fachbereich 8 (8)
- Institut für Informatik (6)
- Fachbereich 7 (4)
- Institut für Integrierte Naturwissenschaften, Abt. Biologie (4)
- Institut für Wirtschafts- und Verwaltungsinformatik (4)
- Fachbereich 5 (3)
- Institute for Web Science and Technologies (3)
- Institut für Germanistik (2)
A taxonomic revision of the genus Pteris in tropical Africa revealed 26 species. An identification key to the species is provided. Morphological characters were used to prepare a cladistic analysis of the relevant taxa. Each species was evaluated concerning the IUCN red list status. Only Pteris mkomaziensis was considered as Near Threatened, and all other species only as Least Concern. An inventory of the ferns of Kakamega Forest / Kenya and Budongo Forest / Uganda revealed 85 species in Kakamega and 66 species in Budongo. Life form spectra were analysed and the ferns were studied for their value for bioindication.
Diversität und Verbreitung von Schluchtwäldern (Tilio-Acerion) im Rheinischen Schiefergebirge
(2012)
Im Rahmen dieser Studie wurde die Diversität der Gefäßpflanzen von Edellaubmischwäldernrn im Rheinischen Schiefergebirge statistisch erfasst und dabei erstmalig deren Artenzusammensetzung anhand einer angewandten Standortanalyse soziologisch-floristisch beschrieben sowie deren Verbreitung im Einzugsbereich von unterer Mosel, unterer Lahn und dem Mittelrheingebiet zusammenfassend dargestellt.
Zudem war es Ziel dieser Untersuchung die Variabilität und Struktur der Artenzusammensetzung in Abhängigkeit von edaphischen und mikroklimatischen Umweltfaktoren auf Schiefer als anstehendem Gestein zu analysieren und diesbezüglich das Tilio-Acerion des Untersuchungsraums mit den bisher vorwiegend auf kalkhaltigem Untergrund untersuchten Edellaubmischwaldgesellschaften der übrigen deutschen Gebirge zu vergleichen. Mit Blick auf die Einstufung dieser Waldgesellschaft als "prioritären Lebensraum" innerhalb des NATURA 2000-Schutzgebietssystems und der an die FFH-Richtlinie gekoppelten Berichtspflicht von Rheinland-Pfalz, die alle 6 Jahre erfüllt werden muss,wurde die bisherige Einstufung der Ausprägung dieser Waldgesellschaft für die naturräumlichen Haupteinheiten im Untersuchungsraum revidiert. Dabei wurden auch anthropogene Gefährdungen untersucht und Schutzmaßnahmen für den Erhalt dieses in Mitteleuropa streng geschützten Fauna-Flora-Habitats diskutiert sowie Vorschläge zur Eingliederung von bisher unberücksichtigten Regionen in das NATURA 2000-Schutzgebietssystem abgegeben. Insgesamt wurden 191 Taxa in 1209 Aufnahmen erfasst und 29 Arten davon auf Grund ihrer Seltenheit oder Schutzwürdigkeit als bemerkenswert eingestuft. Des Weiteren wurden 3 Assoziationen und eine bisher noch unbekannte Festuca altissima-Tilia cordata-Gesellschaft beschrieben, wobei der überwiegende Teil der Aufnahmen dem Fraxino-Aceretum pseudoplatani zugeordnet wurde, das sich synsystematisch in weitere standörtlich bedingte Untereinheiten differenzieren lässt. Dabei hebt sich das Tilio-Acerion im Rheinischen Schiefergebirge gemeinsam mit Beständen weiterer silikatischer Gebirge von Edellaubmischwäldern auf karbonatischen Gebirgen in Deutschland durch säuretolerante Arten einer Polystichum aculeatum-Variante syntaxonomisch ab. Zudem konnte das in der Literatur bisher umstrittene Adoxo moschatellinae-Aceretum als eigene, dem Tilio-Acerion zugehörige Assoziation anhand von Kennarten wie dem im Untersuchungsraum hochsteten Polystichum aculeatum in der für die syntaxonomische Bewertung prioritären Krautschicht validiert werden. Regionale Unterschiede der Edellaubmischwälder sind im Untersuchungsgebiet anhand der dortigen Verbreitungsgrenzen submediterraner, (sub-)atlantischer und (sub-)kontinentaler Florenelemente erkennbar. Edaphische und mikroklimatische Faktoren haben sich als besonders einflussreich für diverse Ausprägungen der Schluchtwaldflora herausgestellt. Das Tilio-Acerion ist im Einzugsbereich der Mosel besonders artenreich, was lokal auch auf das Lahngebiet zutrifft. Der Straßen- und Wegebau wird als häufigste Gefährdung eingestuft, in den Tieflagen des oberen Mittelrhein- und Moselgebiets kommen Niederwald-Effekte in Form von haselreichen Degradationsstadien hinzu, in den Hochlagen sind Nadelwaldaufforstungen problematisch. Entsprechend wird gefordert derartige Maßnahmen sowie die Abholzung und Totholzentnahme in Edellaubmischwäldern zu vermeiden und diese sich stattdessen ihrer natürlichen Sukzession zu überlassen.
Die Studie hat gezeigt, dass die naturräumlichen Haupteinheiten Hunsrück, Westerwald, Taunus sowie das Mosel-, Lahn- und Mittelrheintal entgegen bisheriger Einstufung ein "Hauptvorkommen" an Schlucht- und Hangmischwäldern mit "guter Ausprägung" aufweisen.
Problembewältigung stellt eine essentielle (kognitive) Aktivität im alltäglichen Leben, wie auch im Berufsleben, dar. Bereits in der Grundschule wird diese Fähigkeit, z.B. bei der Lösung von mathematischen Textaufgaben, gefordert und gefördert. Trotzdem bereitet dies Schülern verschiedener Klassenstufen nach wie vor große Schwierigkeiten. Das Lösen von Textaufgaben erfordert eine Vielzahl kognitiver Operationen. Dies ist besonders dann der Fall, wenn es sich bei den Aufgaben nicht um Routineaufgaben handelt. Für die Bearbeitung von Textaufgaben können Schüler auf verschiedene Repräsentationen zurückgreifen, wobei sowohl interne und externe als auch depiktionale (abbildende) und deskriptionale (beschreibende) unterschieden werden können. Da bisher kaum empirische Forschungsarbeiten zum Umgang von Schülern mit problemhaltigen Textaufgaben vorliegen, und darüber hinaus sehr wenig über die selbstgenerierten Repräsentationen bei der Bearbeitung von Textaufgaben bekannt ist, ist die vorliegende Arbeit z.T. explorativ angelegt. Im Fokus stehen die spontanen und individuellen Lösungsprozesse von Schülern verschiedener Klassenstufen bei der Bearbeitung von problemhaltigen Textaufgaben. Dabei wurde vorrangig untersucht, auf welche Repräsentationsformen die Schüler bei ihren Lösungsprozessen zurückgreifen.
Insgesamt 268 Schüler verschiedener Klassenstufen (Grundschüler der 3. und 4. Klasse; Gymnasiasten der 6. und 9. Klasse) wurden in Einzeluntersuchungen gebeten, jeweils fünf problemhaltige Textaufgaben zu lösen. Diese wurden ursprünglich im Hinblick auf die Primarstufe entwickelt, scheinen jedoch auch für Schüler höherer Klassenstufen ihren anspruchsvollen Charakter nicht zu verlieren. Für die Aufgabenlösungen standen den einzelnen Schülern verschiedene Materialien zur Verfügung. Von Seiten der Versuchsleitung wurden keinerlei Hilfestellungen gegeben. Nach jeder Aufgabe wurden die Schüler zu ihren Vorgehensweisen mittels halbstrukturiertem Interview befragt. Das individuelle Vorgehen wurde durch Videoaufzeichnungen festgehalten.
Das gewonnene Videomaterial wurde durch drei geschulte Beobachter anhand eines selbstentwickelten Kodiersystems quantifiziert und schließlich statistisch ausgewertet.
Allgemein kann gesagt werden, dass alle Schüler Schwierigkeiten bei der Bearbeitung der fünf Textaufgaben aufwiesen. So gab es nicht einen Schüler, der alle fünf Aufgaben richtig lösen konnte. Trotzdem nahm die Anzahl der richtigen Lösungen mit höherer Klassenstufe signifikant zu. In diesem Zusammenhang ergaben sich jedoch unterschiedlich starke Zuwächse in Abhängigkeit von der jeweiligen Aufgabe und ihren Anforderungen.
Hinsichtlich der selbstgenerierten Repräsentationsformen ergaben sich u.a. folgende Ergebnisse. Erstens operierten die Grundschüler im Vergleich zu den Gymnasiasten sehr stark intern deskriptional, d.h., sie waren versucht, die gesamten Aufgaben durch Kopfrechnen zu bewältigen. Zweitens griffen die Schüler mit höherer Klassenstufe eher auf verschiedene Repräsentationsformen zurück, was für einen flexibleren Umgang mit ihnen spricht. Drittens scheint die Verwendung multipler Repräsentationen bei der Konstruktion des mathematischen Modells nicht per se zu einer richtigen Lösung zu führen. Aber sie verhindert, unabhängig von der Klassenstufe, eine gänzlich falsche Aufgabenbearbeitung bzw. -lösung. Im Bezug auf das Lösungsvorgehen konnte kein eindeutiges Ergebnis erzielt werden. Hier scheinen je nach Aufgabenanforderungen (und wahrscheinlich auch Personenfähigkeiten) ganzheitliche und zergliedernde Vorgehensweisen unterschiedlich gut geeignet zu sein im Hinblick auf den Lösungserfolg. Nachfolgende Untersuchungen müssen die hier berichteten Ergebnisse überprüfen. Die Ergebnisse legen jedoch nahe, dass hinsichtlich des Umgangs von Schülern mit anspruchsvollen Textaufgaben nach wie vor Handlungsbedarf bestehen sollte. Gerade der im Mathematikunterricht gelegte Schwerpunkt auf deskriptionale Repräsentationsformen im Sinne von Rechnungen und Gleichungen scheint bedenklich. Vielmehr sollte eine Schulkultur etabliert werden, die den flexiblen Einsatz von verschiedenen Repräsentationsformen, und hier im Besonderen die Verwendung depiktionaler Repräsentationen, als legitim und durchaus notwendig erachtet.
The advantage of virtual networks is to test routing-algorithms or distributed software in an easy-to-use, cheap and well-arranged way. Optimized Link State Routing (OLSR) and Babel are two modern routing-algorithms for mobile ad-hoc networks that distinguish faulty links from good link connections in their routing process. Typically virtual networks provide nearly perfect link connections without any network traffic disruptions. The Traffic Control (tc) tool is able to manipulate connections in terms of delay and packet loss.
In this bachelor thesis virtual network scenarios are created with VNUML and Qemu and manipulated with tc in order to analyze the behavior of ad-hoc routing algorithms like Babel and OLSR. The behavior of well-known TCP congestion control algorithms, e.g., TCP Vegas and TCP Reno are analyzed, too.
In this study the influence of soil moisture and soil type on the selected pests and diseases Phytophthora infestans (Mont.) de Bary, Fusarium graminearum Schwabe and F. culmorum (W.G. Smith) Saccardo, respectively, as well as the larvae of the most important Elateridae Agriotes lineatus Linnaeus, A. obscurus Linnaeus, A. sputator Linnaeus, A. sordidus Illiger and A. ustulatus Schaller (called wireworms) was characterized. The aim was to integrate soil modules in prediction models for agricultural and horticultural pests and diseases, to optimise the scheduling of disease controls, to detect periods of high-intensity attacks and to reduce the number of preventive treatments. The measurement of soil moisture is time intensive and additionally soil moisture is highly varying within small areas. Therefore this parameter did not have a high impact in the prediction models for agricultural and horticultural pests and diseases in the past. In this study the possibilities for a site-specific simulation of soil moisture was investigated. The soil moisture simulation model SIMPEL (HÖRMANN 1998) was adapted to agricultural conditions and the site-specific simulation of soil moisture was realised on the basis of radar measured precipitation data from the German Meteorological Service (DWD) and on interpolated weather data (ZEUNER 2007). The comparison of the simulated soil moisture data with the field measurements showed a highly significant correlation (Alpha = 0.01) and an average of 3.8 % differences. Therefore the site-specific simulation of soil moisture will be possible and can be included in the prediction models for agricultural and horticultural pests and diseases. The results of laboratory and field experiments as well as analyses on monitoring data showed, that the influence of soil parameters on the three selected pests and diseases varied. Whereas the investigations on the influence of soil moisture on P. infestans identified no clear correlation, considerable correlations between soil moisture and soil type on wireworms as well as F. graminearum and F. culmorum could be detected. For the prediction of the appearance of wireworms in the upper soil level in relation to soil moisture and soil type the simulation model SIMAGRIO-W was developed. The validation of the new model showed highly significant correlations between soil moisture and soil type on the appearance of wireworms. The influence of soil type on F. graminearum and F. culmorum was integrated in the existing prediction model FUS-OPT. A correlation between air cached spores of F. graminearum and simulation results from the modified model FUS-OPT showed a high significance in PEARSON test. The results of this study showed that the implementation of soil moisture and soil type in the prediction models for agricultural and horticultural pests and diseases can be realised. The developed and modified prediction models can be used by the Governmental Crop Protection Services in Germany through www.isip.de.
In einem randomisierten Kontrollgruppen-Design wurde die Wirksamkeit zweier ambulanter psychologischer Tinnitus-Therapien (12-wöchige psychologische Tinnitus-Therapie (PTT) sowie 4-wöchige psychologische Kurzzeit-Tinnitus-Therapie (KPTT)) miteinander verglichen. Die Überprüfung der Wirksamkeit erfolgte mittels folgender Parameter: Tinnitusbelastung, subjektive Lautheit, Dauer der Tinnituswahrnehmung, Tinnitusbelästigung, Copingfähigkeit, Stimmung, Depressivität, Schlaf und Kontrollüberzeugung. An der Studie nahmen 90 Patienten mit chronischem Tinnitus teil, die zufällig der PTT, der KPTT oder einer Wartekontrollgruppe (WKG) zugeteilt wurden. Die Datenerhebung erfolgte zu drei Messzeitpunkten: vor Therapiebeginn, nach Therapieende sowie 6 Monate nach Therapieende. Beide Interventionen führen zur signifikanten Reduktion der Tinnitusbelastung, der subjektiv wahrgenommenen Lautheit, der Dauer der Tinnituswahrnehmung und der Tinnitusbelästigung. Weiterhin führen beide Therapien zum Erlernen und zur Anwendung von effektiven Copingstrategien und damit auch zur Erhöhung der Kontrollüberzeugung. Alle berichteten Verbesserungen bleiben auch 6 Monate nach dem Therapieende stabil. Nachdem in der WKG nach 4 und nach 12 Wochen keine signifikanten Veränderungen beobachtet werden konnten, sind die Veränderungen in den Therapiegruppen in den o.g. Variablen als Therapieeffekte zu sehen. Keine der beiden Interventionen führt zu einer signifikanten Veränderung des Schlafes und der Stimmung. Als einziger signifikanter Prädiktor des Therapieerfolgs hat sich die Tinnitusdauer herausgestellt. Während die PTT unabhängig von der Tinnitusdauer zu einer Reduktion der Tinnitusbelastung führt, ist die KPTT umso wirksamer, je kürzer die Tinnitusdauer ist. Das Vorhandensein einer komorbiden psychischen Störung, die Ausgangsbelastung sowie die Veränderungsbereitschaft beeinflussen die Therapiewirksamkeit nicht. Da sich diese beiden ambulanten psychologischen Tinnitus-Therapien nicht in ihrer Wirksamkeit und in ihren langfristigen Auswirkungen voneinander unterscheiden, kann resümiert werden, dass beide gut für eine ambulante psychologische Behandlung von Patienten mit chronischem Tinnitus geeignet sind. Die kürzere KPTT ist jedoch aufgrund des niedrigeren Zeit- und Kostenaufwandes als effizienter zu bewerten.
Software projects typically rely on several, external libraries. The interface provided by such a library is called API (application programming interface). APIs often evolve over time, thereby implying the need to adapt applications that use them. There are also reasons which may call for the replacement of one library by another one, what also results in a need to adapt the applications where the library is replaced. The process of adapting applications to use a different API is called API migration. Doing API migration manually is a cumbersome task. Automated API migration is an active research field. A related field of research is API analysis which can also provide data for developing API migration tools.
The following thesis investigates techniques and technologies for API analysis and API migration frameworks. To this end, design patterns are leveraged. These patterns are based on experience with API analysis and migration within the Software Languages Team.
Die Nutzung mehrerer Merkmalsräume führt zu einer Steigerung der Erkennungsrate. Jedoch darf die Menge der für einen Merkmalsvektor gespeicherten Daten nicht zu großrnwerden, da es sonst zu Laufzeitproblemen in der zeitkritischen Erkennungsphase kommt. Der Vergleichsaufwand steigt stark an, da aus dem zu analysierenden Bild annährend dieselbe Menge Daten generiert werden müssen und mit allen Objektdaten aus der Objektdatenbank verglichen werden müssen. Hierbei könnte ein Baumstruktur innerhalb der Objektdatenbank helfen, die mittels abstrakter Objekte in den oberen Ebenen eine Vorselektierung anhand bestimmter Merkmalsvektorwerte trifft und damit unnötige Vergleichsoperationen verhindern. Im Allgemeinen berücksichtigen die wenigsten Objekterkennungsmethoden den semantischen als auch realen Kontextes eines Objektes, welche für die menschliche Wahrnehmung eine essentielle Bedeutung hat. Dieses Merkmal könnte man neben den anderen in dieser Arbeit vorgestellten Merkmalen in einen Erkennungsalgorithmus einbringen. Solche Algorithmen, die diese Zusammenhänge verarbeiten, benötigen große semantische Netzwerke, die die Beziehung von Objekten zueinander sowie die Wahrscheinlichkeit des Vorkommens von Objekten im Umfeld von anderen Objekten abbilden. Auch hier müsste natürlich auch darauf geachtet werden das die Vergleichsoperationen nicht die nahezu echtzeitfähige Ausführung behindern.
Education and training of the workforce have become an important competitive factor for companies because of the rapid technological changes in the economy and the corresponding ever shorter innovation cycles. Traditional training methods, however, are limited in terms of meeting the resulting demand for education and training in a company, which continues to grow and become faster all the time. Therefore, the use of technology-based training programs (that is, courseware) is increasing because courseware enables self-organized and self-paced learning and, through integration into daily work routines, allows optimal transfer of knowledge and skills, resulting in high learning outcome. To achieve these prospects, high-quality courseware is required, with quality being defined as supporting learners optimally in achieving their learning goals. Developing high-quality courseware, however, usually requires more effort and takes longer than developing other programs, which limits the availability of this courseware in time and with the required quality.
This dissertation therefore deals with the research question of how courseware has to be developed in order to produce high-quality courseware with less development effort and shorter project duration. In addition to its high quality, this courseware should be optimally aligned to the characteristics and learning goals of the learners as well as to the planned usage scenarios for the knowledge and skills being trained. The IntView Method for the systematic and efficient development of high-quality courseware was defined to answer the research question of this dissertation. It aims at increasing the probability of producing courseware in time without exceeding project schedules and budgets while developing a high-quality product optimally focused on the target groups and usage scenarios.
The IntView Methods integrates those execution variants of all activities and activity steps required to develop high-quality courseware, which were identified in a detailed analysis of existing courseware development approaches as well as production approaches from related fields, such as multimedia, web, or software engineering, into a systematic process that in their interaction constitute the most efficient way to develop courseware. The main part of the proposed method is therefore a systematic process for engineering courseware that encompasses all courseware lifecycle phases and integrates the activities and methods of all disciplines involved in courseware engineering, including a lifecycle encompassing quality assurance, into a consolidated process. This process is defined as a lifecycle model as well as a derived process model in the form of a dependency model in order to optimally support courseware project teams in coordinating and synchronizing their project work. In addition to the models, comprehensive, ready-to-apply enactment support materials are provided, consisting of work sheets and document templates that include detailed activity descriptions and examples.
The evaluation of the IntView Method proved that the method together with the enactment support materials enables efficient as well as effective courseware development. The projects and case studies conducted in the context of this evaluation demonstrate that, on the one hand, the method is easily adaptable to the production of different kinds of courseware or to different project contexts, and, on the other hand, that it can be used efficiently and effectively.
In summary, this study revealed the widespread occurrence of antiviral drugs in the aquatic environment. Furthermore, it could be shown that the elimination of pharmaceuticals in both biological and oxidative treatment do not necessarily result in their mineralization but rather leads to the formation of a variety of transformation and oxidation products.
This is one of the first studies in which the fate and in particular the transformation of pharmaceuticals has been comprehensively investigated in almost the complete water cycle, from biological wastewater treatment to advanced oxidation processes via ozone. It was shown that the transformation of pharmaceuticals in the urban water cycle can ultimately result in the formation of toxic transformation products.
Die Diskussion zum Thema Mindestlohn ist ein stets aktuelles und findet zur Jahreswende 2011/2012, in der diese Arbeit entstanden ist, von der Politik und Wirtschaft besonders viel Aufmerksamkeit. Die Aktualität dieses Themas und ihre Dynamik werden besonders darin bemerkbar, dass bei der Untersuchung der deutschen Literatur zu diesem Thema viele der Aussagen und Thesen nicht mehr zutreffen. Das eingangs aufgeführte Zitat von der amtierenden Bundesministerin für Arbeit und Soziales, Ursula von der Leyen, bringt zum Ausdruck, dass mittlerweile in der Politik ein Konsens darüber existiert, dass vollzeitbeschäftigte Arbeitnehmer in der Lage sein müssen, ihren Lebensunterhalt aus ihrem Einkommen zu sichern. Dies stellt für die christlich-demokratische Regierungspartei einen Dogmenwechsel dar. Während die CDU in den letzten Jahrzehnten auf die Tarifbindung gesetzt und einen Mindestlohn kategorisch abgelehnt hat, geht sie nun dazu über, Lohnuntergrenzen für alle Branchen zum Ziel ihrer Regierungsarbeit zu machen. Dies ist in starkem Maße darauf zurückzuführen, dass auf dem Arbeitsmarkt in den letzten Jahren die Lohnspreizung, die traditionell in Deutschland niedrig war, eine stark divergente Entwicklung genommen hat.
Ein weiterer Grund ist die abnehmende Rolle der Tarifbindung der letzten Jahre. Die Folge dieser Entwicklungen ist, dass 1,2 Millionen Menschen, somit vier Prozent der Beschäftigten, für Löhne unter fünf Euro. Weitere 2,2 Millionen Menschen arbeiten für Stundenlöhne unter sechs Euro, 3,7 Millionen Menschen verdienen unter sieben Euro und 5,1 Millionen Menschen arbeiten für Löhne unter acht Die Frage inwieweit ein Leben in Würde unter diesen Voraussetzungen möglich ist, beschäftigt große Teile der Gesellschaft. Denn damit sind das Volumen und die Lohnhöhe des Niedriglohnsektors auf ein Niveau gesunken, welche gesellschaftlich und politisch nicht mehr einfach zu vertreten sind. Zur Abwendung dieser Entwicklung wird das wirtschaftspolitische Instrument Mindestlohn, als probates Mittel, häufig in die Diskussion gebracht. So haben in der Vergangenheit viele Staaten den Mindestlohn auf unterschiedliche Art eingesetzt. Die Einführung eines flächendeckenden Mindestlohns in der Bundesrepublik wird vor allem mit den folgenden Zielen befürwortet.
Der Mindestlohn soll zum einen gewährleisten, dass Vollzeitbeschäftigte ein Einkommen erzielen, dass mindestens ihrem soziokulturellen Existenzminimum entspricht. Andererseits soll die Einführung des Mindestlohns die Notwendigkeit des Aufstockens mit dem Arbeitslosengeld II hemmen und somit die öffentlichen Kassen entlasten. Die Gegner des Mindestlohns lehnen die Einführung eines flächendeckenden allgemeinverbindlichen Mindestlohns, vor allem aufgrund arbeitsmarkttheoretischer Überlegungen, kategorisch ab. Diese vertreten die Ansicht, dass die Mechanismen des Arbeitsmarktes eine selbstregulierende Wirkung besitzen und ergänzt um die Tarifautonomie ausreichend geregelt sind. Eine drohende Vernichtung bestehender Arbeitsplätze und eine ausbleibende Schaffung neuer Arbeitsplätze werden als Folge der Einführung von Mindestlohn weiterhin argumentiert.
Hinzu kommt, dass in der Theorie je nach Denkschule und Position eine entgegengesetzte Auswirkung auf den Arbeitsmarkt prognostiziert werden kann. Vor dem Hintergrund der aktuellen Debatte untersucht die vorliegende Arbeit die Auswirkung der Einführung eines Mindestlohns. Um eine objektive Wertung für die vorliegende Problemstellung zu finden, wird mit Hilfe von Netlogo die computergestützte agentenbasierte Simulation benutzt. Anhand eines fiktiven Marktes mit fiktiven Akteuren/"Agenten" wird der Versuch unternommen, eine modellhafte Darstellung des Arbeitsmarktes abzubilden. Insbesondere soll untersucht werden, inwieweit die Einführung eines Mindestlohns, branchenspezifisch oder flächendeckend, den Beschäftigungsgrad und die Höhe der Löhne beeinflusst.
Grundordnung der Universität Koblenz-Landau.
Dritte Satzung zur Änderung der Satzung der Universität Koblenz-Landau über das Auswahlverfahren in zulassungsbeschränkten Studiengängen.
Zweite Satzung zur Änderung der Satzung der Universität Koblenz-Landau über das Auswahlverfahren in zulassungsbeschränkten Studiengängen.
Zweite Ordnung zur Änderung der Gemeinsamen Prüfungsordnung für den Bachelorstudiengang und den Masterstudiengang "Psychologie" des Fachbereichs Psychologie der Universität Koblenz-Landau, Campus Landau.
Das Beispiel ist ein hoch komplexer, historisch sich vielfach ausdifferenzierender Begriff, mit dem sich seit der Antike die geisteswissenschaftlichen Disziplinen intensiv auseinandergesetzt haben. Die Orientierung am Besonderen, am Konkreten, am Einzelfall, am Exemplarischen ist eine zentrale menschliche Denkbewegung bei der Erkenntnisgewinnung, der Wissensvermittlung, dem Verstehen und der Verständigung ebenso wie bei der Überzeugung und Glaubhaftmachung. Wie wir aber in unserem ganz gewöhnlichen, alltäglichen Sprechen mit Beispielen umgehen, welche Rolle "das Exemplarische" insbesondere in der verbalen, mündlichen Interaktion spielt, wozu und wie wir Beispiele einsetzen, das ist linguistisch wenig und vor allem nicht systematisch untersucht. Wir nehmen im Alltag immer wieder explizit metasprachlich auf das Beispielgeben Bezug, wenn wir etwa sagen "Gib mir doch mal ein Beispiel" oder "Ich mach mal ein Beispiel". Die Analyse der Gesprächspraxis zeigt zudem, dass die Beispielverwendung kein randständiges, sondern ein sehr häufig zu beobachtendes sprachliches Phänomen in verschiedenen Kommunikationskontexten ist, von dem sich vermuten lässt, dass es gerade für die Alltagskommunikation fundamental ist.
Die vorliegende Arbeit hat deshalb zum Ziel, Beispiele in der Sprachverwendung als eine Form des sprachlichen Handelns fassbar und analysierbar zu machen und die Erscheinungsformen sowie Wirkungs- und Funktionsweisen auf der Grundlage von Transkripten natürlichsprachiger Dialoge empirisch zu untersuchen. Aus der Perspektive verschiedener Disziplinen werden Dimensionen des Beispielbegriffs, des fallbezogenen Denkens und des Argumentierens mit Beispielen betrachtet. Es wird auf die grundlegende Rolle des Beispiels, des Besonderen beim Erkennen und Verstehen des Allgemeinen eingegangen, auf die Beschreibungen der Beispielfunktionen und "Funktionslogiken" auf verschiedenen Ebenen. Ausführlich wird auf die bisherigen Analysen zur Beispielverwendung in der Text- und Gesprächslinguistik eingegangen. Im Kontext der Analyse der Sprachverwendung in der natürlichen Sprache wird das Beispiel allerdings nur selten als eigenes Thema behandelt, das Exemplifizieren / Beispielnennen wird häufig als sprachliche Handlung selbstverständlich vorausgesetzt, jedoch dabei nicht konzeptuell betrachtet. Aufbauend auf die Betrachtung und Bewertung der bisherigen Untersuchungen wird in der vorliegenden Arbeit Beispielverwenden als sprachliche Handlung konzeptualisiert, die im Kern eine Konnexstiftung von Besonderem und Allgemeinem enthält. Dabei werden gesprächsanalytische und hermeneutische Ansätze aus der Handlungssemantik aufeinander bezogen und Möglichkeiten für eine Adaption gezeigt.
Die empirischen Analyse stützt sich auf ein umfangreiches Korpus transkribierter verbaler Interaktionen (Diskussionen, Talkshow, Konfliktgespräch). Die Analyseergebnisse bestehen zum einen aus korpusgestützten Beschreibungen und (für Erweiterungen offenen) Typologisierungen von Realisierungsformen und des "displays" von Beispielverwendung sowie der empirisch gestützten Beschreibung von Handlungs- und Interaktionsmustern der Beispielverwendung im Gespräch und ausführlichen, exemplarischen, funktionsbezogenen Einzelanalysen.
Gerechtigkeitswahrnehmungen haben sich im Unternehmenskontext als bedeutsame Prädiktoren von Bindungsphänomenen und Extra-Rollenverhalten zugunsten der Organisation erwiesen, aber für Alumni als ehemalige Mitglieder einer Organisation wurde dieser Zusammenhang bisher noch nicht untersucht. Die vorliegende Arbeit gibt einen Überblick über Konzepte, mit denen das in den Sozialwissenschaften bislang wenig adressierte und elaborierte Konzept der Alumnnibindung theoretisch gefasst und mit Konzepten der psychologischen Gerechtigkeitsforschung in Verbindung gebracht werden kann. Um die Bedeutsamkeit von Gerechtigkeitswahrnehmungen während der Hochschulzeit für spätere Alumnibindung und späteres Alumni-Engagement zu untersuchen, wird ein theoretisches Modell vorgeschlagen, das Gerechtigkeit mit bereits bekannten Einflussfaktoren integriert.
Die empirische Studie erfasste zu drei Messzeitpunkten zunächst die Kontrollvariablen und in einer zweiten Erhebungswelle die Gerechtigkeitswahrnehmungen von Studierenden. In einer dritten Erhebung ca. 6-12 Monaten nach Abschluss des Studiums die affektive und normative Hochschulbindung, sowie die Engagement-Bereitschaften von Alumni erhoben. Anhand der Stichprobe, die je nach Messzeitpunkt und beteiligten Variablen zwischen N = 296 bis N =795 Teilnehmenden umfasst, werden einzelne Hypothesen über die Auswirkung von Gerechtigkeitswahrnehmungen, sowie deren Bedeutung innerhalb eines multiplen regressionsanalytischen Mediationsmodelles überprüft.
Die Ergebnisse lassen darauf schließen, dass sich Hochschulbindung und Engagement-Bereitschaften von Alumni nicht nur prinzipiell durch Gerechtigkeitswahrnehmungen vorhersagen lassen, sondern diese insbesondere in ihrer prozeduralen und interaktionalen Komponente einen bedeutsamen Beitrag zur Vorhersage von Hochschulbindung und Engagement-Bereitschaften auch über andere Einflussfaktoren hinaus leisten. Ferner zeigte sich, der Einfluss von Gerechtigkeitswahrnehmungen auf Engagement-Bereitschaften von Alumni je nach konkretem Kriterium über eine affektive oder normative Form der Hochschulbindung mediiert wird.
Wild boars belong to the most wide spread ungulates in the world. They are characterized by a well performed adaption to their environment mainly due to their omnivorous dietary. The wild boar population in Germany increased during the past three decades. Nowadays their high density leads to problems in agricultural areas due to damage of crops and plays a significant role as disease vector as the classical swine fever. For an effective population management population size information is of crucial importance. Different traditional methods exist to estimate population sizes as direct sightnings, faecal drop counts or hunting harvest which provide only relative estimates and population trends. Absolute population sizes could be yielded by a Capture-Mark-Recapture (CMR) approach. However, capturing of wild boars is difficult to realize and costly in terms of personnel and field effort.
Furthermore the capture probabilities are heterogeneous due to the variable behaviour of individuals influenced by age, sex, and experience of the animals. Non-invasive genetic methods are a promising complement to the traditional methods for population size estimation particularly for wild boar. These methods reduce stress and capture bias and increase the number of re-captures. Faeces proved to be a suitable DNA source for wild boar genotyping, due to almost equal capture probability. However working with faeces implicates difficulties such as low DNA rnquality and quantity, genotyping errors as dropout and false alleles.
The main aim of the present study was to develop a reliable, cost-efficient, reproducible and practicable method for wild boar genotyping. This method should provide a reliable dataset of genotypes obtained from the collected faeces samples. Individual identification forms the basis for an improved mark-recapture approach. As there is no sound method for absolute population counts in free living wild boar, reference values for the validation of this new approach are missing. Therefore, different routines to reduce and to assess genotyping errors were compared within this thesis. For maximum amplification rate, the storage, the extraction methods and the PCR-procedure were optimised. A step by step procedure was evaluated in order to determine the minimum required microsatellite (MS) number for reliable individual identification including a test with family groups (female and embryo tissue) to distinguish even between close relatives. A multiple-tubes approach, post-amplification checking and different correction procedures were applied to reduce genotyping errors. In order to quantify real genotyping error rates (GER) of datasets derived from sampling in the Palatinate Forest in western Germany, different methods for GER determination were compared with each other, obtaining GERs between 0% and 57.5%. As a consequence, more strict criteria for the multi-tube approach and increased repetition number of homozygous samples were used. An additional method validation was the implementation of a blind test to achieve the reliability of the genotyping and error checking procedure. Finally a strict and practicable proposal for the lab procedure was developed, by beginning with faecal sample collection and ending with a reliable dataset with genotypes of each sample.
The results of the presented method were derived from two sampling periods in a 4000 ha area in the Palatinate Forest in Rhineland-Palatinate in December 2006 and 2007. Both provided high confidence intervals (CI) applying inaccurate estimates (eg. for 2006 population size amounted to 215 with CI 95% of 156-314 and for 2007 population size amounted to 415 with CI 95% of 318-561) due to low sampling sizes (for 2006 n = 141 and for 2007 n = 326), successfully analysed samples (for 2006 n = 89 and for 2007 n = 156) and recapture numbers (for 2006 n = 12 and for 2007 n = 24). Furthermore, the population estimates even for the lowest values were considerably higher than previously assumed by hunting statistics, which implicates an ineffective hunting regime in the study area. For the future prospect, to obtain more precise population size estimations the increase of sampling sizes is inevitable, because absolute and reliable estimates are highly desirable for wildlife management and the control of diseases transmission. Nevertheless, the method for individual genotyping of wild boars evaluated in this thesis could be successfully established resulting in reliable datasets for population estimation modelling with sufficiently low GER.
Nandi forests (South and North Nandi forests) are situated in the Rift Valley Province of Kenya very close to Kakamega forest. From previous documents it has been seen that Kakamega and Nandi forests were connected to each other forming one big "U" shaped forest block till the beginnings of 1900s. Due to human pressures, currently there are three different forests form the previous one block forest. Although they were one forest, information on Nandi forests is very scanty when it is compared to that of Kakamega forest. The species composition and diversity as well as plant communities and population structure of Nandi forests have not been studied. Information is not available about the similarity status of South and North Nandi forests. Furthermore the natural regeneration potential (seedling bank) of these forests is not well studied and documented. Hence this study aims to fill these gaps.
In this study totally 76 quadrates (49 from South Nandi and 27 from North Nandi) were used to collect data. In the South Nandi forests 27 of the quadrates were laid in the better side of the forest (at Kobujoi) and the remaining 22 were in the heavily disturbed part of this forest (Bonjoge). The quadrates were arranged on transects that have one to one and half km which were parallel to the slope. The distance between the quadrates was 100 meter and transects are 500 m apart. The size of the main quadrate was 400 m2 (20 X 20 m) which also had five small plots (3 X 3 m) distributed on the four corners and in the center. Each woody plants (climbers, shrubs and trees) having more than one meter and greater than two centimeter diameter at breast height (dbh) were measured and recorded. Seedlings and herbaceous plants were sampled in the smaller plots. Individual plants were identified at species level and when it was not possible to identify in the field voucher specimen were prepared and latter identified at the East African Herbarium, National Museum of Kenya, and Nairobi. Clustering and ordination were performed using PC-ORD and CANOCO ecological softwares, respectively. For both clustering and ordination abundance data of the species was used. Shannon diversity index and evenness were computed using PC-ORD while similarity indices, Fisher alpha, rarefaction, species richness estimation (nonparametric species richness estimators) were conducted using EstimateS. Indicator species analysis was undertaken using PC-ORD. Basal area and height class distribution at forests level or site level (Bonjoge and Kobujoi) and diameter (dbh) class distribution for selected trees species were performed to evaluate population structure.
Furthermore importance value (IV) of woody plant species was calculated. SPSS version 16 was used to undertake both parametric (when data assume normal distribution) and nonparametric (when data are not assuming normal distribution) comparison of means, correlation and regression analysis.
In this study totally 321 vascular plant species comprising 92 families and 243 genera were identified in Nandi forests (both South and North Nandi forests). In South Nandi forest 253 plant species form 82 families and 201 genera were recorded while in North Nandi 181 species comprising 67 families and 155 genera were recorded. Jackknife second order estimators gave the highest species richness estimate for both South and North Nandi forests i.e. 284 and 209, respectively. In the case of highly disturbed and less disturbed parts of South Nandi forest 138 and 172 vascular plant species were recorded, respectively. Asteraceae, Rubiaceae and Euphorbiaceae are the top three species rich families of Nandi forests. In terms of different diversity measures (i.e. alpha and beta diversity, Fisher alpha, Shannon diversity and evenness indices) South Nandi is more diverse than North Nandi forest. Sörensen and Jaccard (classic) as well as their respective abundance based similarities showed that there is a low species similarity between South and Nandi forests. The cluster analysis resulted in three different plant communities and this result is supported by the ordination result.
South and North Nandi forest has inverted "J" height class distribution showing that larger proportion of woody plant individuals are found in the lower height classes. Similar pattern is observed when the diameters of all woody plants were considered together. However, different diameter class distributions (seven types) were identified when selected tree species were analyzed separately. It has been observed that the basal area of South Nandi forest is significantly lower than that of North Nandi forest (Mann-Whitney U =358, p < 0.001). Similarly Bonjoge has significantly lower basal area (t-value=3.77, p<0.01) than that of Kobujoi. Number of woody plat seedlings in South Nandi forest is significantly higher than that of North Nandi (Mann-Whitney U = 362.5, p<0.001). In the same way Bonjoge has significantly smaller number of ssedlings than Kobujoi (t-value 4.24, p<0.001). Most of species in both forests are able to resprout from stumps after physical damage; hence this helps the regeneration of the forests in addition to seedling banks. This study enables to fill some of the information gaps about Nandi forests especially of floristic composition, population structure, natural regeneration and human impacts on this ecosystem.
Based on dual process models of information processing, the present research addressed how explicit disgust sensitivity is re-adapted according to implicit disgust sensitivity via self-perception of automatic behavioral cues. Contrary to preceding studies (Hofmann, Gschwendner, & Schmitt, 2009) that concluded that there was a "blind spot" for self- but not for observer perception of automatic behavioral cues, in the present research, a re-adaption process was found for self-perceivers and observers. In Study 1 (N = 75), the predictive validity of an indirect disgust sensitivity measure was tested with a double-dissociation strategy. Study 2 (N = 117) reinvestigated the hypothesis that self-perception of automatic behavioral cues, predicted by an indirect disgust sensitivity measure, led to a re-adaption of explicit disgust sensitivity measures. Using a different approach from Hofmann et al. (2009), the self-perception procedure was modified by (a) feeding back the behavior several times while a small number of cues had to be rated for each feedback condition, (b) using disgust sensitivity as a domain with clearly unequivocal cues of automatic behavior (facial expression, body movements) and describing these cues unambiguously, and (c) using a specific explicit disgust sensitivity measure in addition to a general explicit disgust sensitivity measure. In Study 3 (N = 130), the findings of Study 2 were replicated and display rules and need for closure as moderator effects of predictive validity and cue utilization were additionally investigated. The moderator effects give hints that both displaying a disgusted facial expression and self-perception of one- own disgusted facial expression are subject to a self-serving bias, indicating that facial expression may not be an automatic behavior. Practical implications and implications for future research are discussed.
In this thesis the feasibility of a GPGPU (general-purpose computing on graphics processing units) approach to natural feature description on mobile phone GPUs is assessed. To this end, the SURF descriptor [4] has been implemented with OpenGL ES 2.0/GLSL ES 1.0 and evaluated across different mobile devices. The implementation is multiple times faster than a comparable CPU variant on the same device. The results proof the feasibility of modern mobile graphics accelerators for GPGPU tasks especially for the detection phase in natural feature tracking used in augmented reality applications. Extensive analysis and benchmarking of this approach in comparison to state of the art methods have been undertaken. Insights into the modifications necessary to adapt and modify the SURF algorithm to the limitations of a mobile GPU are presented. Further, an outlook for a GPGPU-based tracking pipeline on a mobile device is provided.
The principles of project management are due to the influences of economic conditions and technological development in transition [Wills 1998 & Jonsson et al. 2001]. The increasing in-ternationalization, shortened time to market, changing labor costs and the increasing involve-ment of professionals distributed geographical locations are drivers of the transformations of the project landscape [Evaristo/van Fenema 1999]. Resulting from this, the use of collabora-tive technologies is a crucial factor for the success of a project. [Romano et al. 2002]. Previous research on the use of collaborative technologies for project management purposes focuses especially the development of model-like, universal system architectures to identify the requirements for a specially designed collaborative project management system. This thesis investigates the challenges and benefits that arise when an organisation imple-ments business software for the purpose of collaborative project management.
Population genetic structure in European Hyalodaphnia species: Monopolization versus gene flow
(2012)
Cyclic parthenogens displays an alternation of asexual and sexual reproduction which has consequences for the genetic structure of these organisms. The clonal diversity of cyclic parthenogenetic zooplankton populations is influenced by the size of the dormant egg bank, i.e., the amount of sexually produced dormant eggs that assembled in the sediment, as these dormant eggs contribute new genetic variants to the populations. Further, the clonal diversity is impacted by clonal erosion over time, which reduces the number of different clones through stochastic and selective processes. Although freshwater invertebrates are good dispersers through their dormant stages, the influence of gene flow is assumed to be negligible, as the local population successfully monopolizes the available resources. As these populations reach carrying capacity fast due to the asexual reproduction, the first colonizing individuals are able to successfully establish in the habitat, resulting in a priority effect which hinders the invasion of new genotypes. Due to clonal selection and sexual reproduction a population will locally adapt over time and will establish a dormant egg bank which facilitates the fast re-colonization after a hostile period. This thesis evaluates the processes altering the population genetic structure of cyclic parthenogenetic zooplankton with a special focus on the concepts of monopolization as well as the counteracting effects of gene flow, using large-lake Daphnia species. Thirty-two variable microsatellite DNA markers were developed and a subset of twelve markers was evaluated regarding their suitability for species assignment and hybrid class detection. With this marker set and an additional mitochondrial DNA marker forty-four natural European populations of the species D. cucullata, D. galeata and D. longispina were studied. In D. galeata, most populations were characterized by low clonal diversities which suggest high influence from clonal erosion over the growing season and a low contribution from the dormant egg bank. Further, recent expansions as well as gene flow were detected, probably caused by the anthropogenic alteration of freshwater habitats, in particular eutrophication of many European lakes. D. longispina and D. cucullata revealed a different genetic structure compared to D. galeata, with high genetic differentiation among populations. This indicates low levels of effective gene flow which is in line with the predictions of monopolization. Further, high clonal diversities were found in populations of the two taxa, suggesting a high contribution from the dormant egg bank while clonal erosion was often not detectable. In D. longispina, mitochondrial data revealed an ancient expansion which was probably initiated by the formation of glacial lakes after the last ice age.
In addition, in D. longispina not only clonal diversity but also genetic diversity was high, indicating that during the build-up of the studied populations the influence from gene flow was probably high. To better understand the processes that act on early populations the population build-up in regard to the temporal advantage of clones during invasion succession was experimentally studied and revealed that priority effects shape population structure of Daphnia species. However, in certain cases the highly superior clones resulted in the extinction of inferior clones independent of the temporal advantage the single clones had.
This clearly shows that not only the time of succession is important but also the competitive strength. rnIn conclusion, the results obtained show that the population genetic structure in cyclic parthenogenetic zooplankton species is impacted by various processes. In addition to earlier studies, which mainly focus on local adaptation, clonal erosion and the size of the dormant egg bank to understand population genetic structure, this thesis could show that gene flow may be effective as well. During population build-up the advantage of early arriving individuals does not necessarily predict the outcome of population assembly, as additional genotypes may contribute to the population. Finally, the genetic structure of established populations may be severely impacted by effective gene flow, if severe environmental changes alter the habitat of the locally adapted population.
Purpose: Leader-follower communication plays an important role in all organizations. However, research on school leadership did not focus on communication competency (CC) and its impact on school quality (e.g. on teachers' commitment, job satisfaction) so far; there is a striking lack of theory and empirical data. Therefore, this paper describes the development and validation of a standardized measure for CC of school principals. It is based on a theoretical framework with LMX as a communication-based approach to leadership and an interpersonal communication process model. Design/Methodology: CC was conceptualized as a 3-dimensional construct. Five studies were conducted with German teachers and school principals from all types of schools (total N=1649): selection of items via expert ratings, exploring the dimensionality, cross-validation of the structure, test-retest-reliability, external validity. Results: Analyses led to a 3-factor solution - Altercentrism, Knowledge and Willingness to Communicate, Self-Regulation - with 14 items and good internal consistencies. CFA, exploring the nomological network, and invariance measurement supported construct validity. Limitations: Empirical studies still have to be conducted to evaluate the application in other leader - follower contexts apart from school. Research/Practical Implications: The measure and the theoretical framework can be applied for analyzing principal - teacher interactions in detail and for detecting problems in communication processes. The measure can also be used for feedback processes and for demand-oriented trainings.Originality/Value: For the first time, this paper explicitly combines the concepts of CC and leadership in schools and provides a measure within a theoretical framework to assess principals' CC. Such a valid instrument is the prerequisite for further investigating the importance of CC in the context of (school) leadership.
Quadrokopter sind Helikopter mit vier in einer Ebene angeordneten Rotoren. Kleine unbemannte Modelle, die oft nur eine Schubkraft von wenigen Newton erzeugen können, sind im Spielzeug- und Modellbaubereich beliebt, werden aber auch von Militär und Polizei als Drohne für Aufklärungs- und Überwachungsaufgaben eingesetzt. Diese Diplomarbeit befasst sich mit den theoretischen Grundlagen der Steuerung eines Quadrokopters und entwickelt darauf aufbauend eine kostengünstige Steuerplatine für einen Modellquadrokopter.
Die theoretischen Grundlagen enthalten eine Untersuchung der Dynamik eines frei fliegenden Quadrokopters, bei der Bewegungsgleichungen hergeleitet und mit den Ergebnissen verglichen werden, die in "Design and control of quadrotors with application to autonomous flying" ([Bou07]) vorgestellt wurden. Weiterhin wird die Funktionsweise verschiedener Sensoren beschrieben, die zur Bestimmung der aktuellen räumlichen Ausrichtung geeignet sind, und es werden Verfahren besprochen, mit denen die Ausrichtung aus den Messwerten dieser Sensoren abgeschätzt werden kann. Zusätzlich wird in den Schiefkörper der Quaternionen eingeführt, in dem dreidimensionale Rotationen kompakt dargestellt und effizient verkettet werden können.
Daran anschließend wird die Entwicklung einer einfachen Steuerplatine beschrieben, die sowohl einen autonomen Schwebeflug als auch Fernsteuerung ermöglicht. Die Platine wurde auf einem X-Ufo-Quadrokopter der Firma Silverlit entwickelt und getestet, der daher ebenfalls vorgestellt wird. Die eingesetzten Bauteile und deren Zusammenspiel werden besprochen. Dabei ist insbesondere die WiiMotionPlus hervorzuheben, die als kostengünstiges Gyrosensormodul verwendet wird. Daneben werden verschiedene Aspekte der Steuersoftware erläutert: die Auswertung der Sensordaten, die Zustandsschätzung mit Hilfe des expliziten komplementären Filters nach Mahony et al. ([MHP08]), die Umsetzung des Ausrichtungsreglers sowie die Erzeugung der Steuersignale für die Motoren. Sowohl die Steuersoftware als auch Schaltplan und Platinenlayout der Steuerplatine liegen dieser Arbeit auf einer CD bei. Schaltplan und Platinenlayout sind zusätzlich im Anhang der Arbeit abgedruckt.
Modern Internet and Intranet techniques, such as Web services and virtualization, facilitate the distributed processing of data providing improved flexibility. The gain in flexibility also incurs disadvantages. Integrated workflows forward and distribute data between departments and across organizations. The data may be affected by privacy laws, contracts, or intellectual property rights. Under such circumstances of flexible cooperations between organizations, accounting for the processing of data and restricting actions performed on the data may be legally and contractually required. In the Internet and Intranet, monitoring mechanisms provide means for observing and auditing the processing of data, while policy languages constitute a mechanism for specifying restrictions and obligations.
In this thesis, we present our contributions to these fields by providing improvements for auditing and restricting the data processing in distributed environments. We define formal qualities of auditing methods used in distributed environments. Based on these qualities, we provide a novel monitoring solution supporting a data-centric view on the distributed data processing. We present a solution for provenance-aware policies and a formal specification of obligations offering a procedure to decide whether obligatory processing steps can be met in the future.
Within the scope of this bachelor thesis, a survey targeting the alumni of the Department 4: Computer Science of the University of Koblenz-Landau was planned, realized and evaluated. The goal was to support the Task Force Bachelor Master that was in charge of the re-accreditation process of the study courses. At first, the theoretical fundament of the survey design was acquired via desk research. Moreover, the analysis of past surveys of similar character lead to getting an impression of the requirements. Under consideration of recent changes, a survey prototype was created and improved following the insights from a pre-test. Using the open source tool LimeSurvey, the final version was implemented. The platform was used as the technical basis of the survey. The recipients included members of alumni clubs as well as recent alumni from the last years.
The survey lead to insights about the satisfaction of the alumni with their study course and the study situation in general. Furthermore, the opinion regarding two new master courses, E-Government and Web Science, was requested. The feedback from four of the study courses was enough to give significant results, for the other five courses it was only possible to interpret the general statements. All in all, there was a high rate of satisfaction with the studies.
Additionally, it was possible to collect suggestions for improvements and criticism. The main topics were internationality, emphasis on study topics, freedom of choice/specialization and relevancy to practice. As a result of the survey, a recommendation was verbalized, that should lead to an improvement in quality and need of the teaching in the Department 4: Computer Science in combination with the detailed results.
Gartner predicts that 33 per cent of total accesses to Business Intelligence (BI) functionalities will be done until 2013 using mobile devices. While mobile devices have already spread to a high extent in private life they have recently become more and more part of the professional life as well and businesses are seeking to develop smart scenarios on how to integrate the new technologies in their processes. The development of mobile software applications is also booming in the field of BI. The research topic of Mobile Business Intelligence (mBI) is focussing on how to expand traditional BI concepts to the new mobility dimension thus enabling to apply BI functionalities on mobile devices, such as smartphones and tablet computers. The increasing significance of mBI for research in combination with the tremendous economic growth potential forecasted for the next years is the driver for writing this thesis. The main aspect of the present thesis is a concept on how to develop a consistent mBI Strategy aligning all structures, processes and stakeholders to one standard set of goals and guidelines. Crucial points when implementing an mBI strategy are the definition of goals, the identification of risks and opportunities, the adaptation of mBI to the user context, the integration of mBI into the existing IT landscape, as well as a proper set-up of system architectures and security concepts. Besides analyzing the aspect of mBI strategy this thesis also considers the market situation of mBI. Clearly defined goals and the systematic development of a consistent mBI strategy which is in line with these goals can be considered as a crucial prerequisite for companies to successfully implement mBI.
Especially e-government projects have a complex stakeholder structure: governments, businesses, non-profits and private stakeholders in different forms and roles are involved or affected by e-government projects. Consequently, the success of ICT projects critically depends on the integration of different stakeholder groups in the design processes of e-government solutions. In this context, stakeholder participation is sought therefore useful initiatives like open government and good governance drive this process forward. Although it is important to analyze the objectives, expectations and power characteristics of project participants and project stakeholders, the determinations of the stakeholder groups through a so called stakeholder analysis are insufficiently methodically developed.
The aim of this bachelor thesis is to pick up the stakeholder theories, stakeholder participation theories, stakeholder analysis and transfer it to an administrative level as well as to check their applicability. This will be done by explaining and systematizing appropriate procedures for the classification and mapping of stakeholder groups, through well-known stakeholder theories of Freeman, Mitchel and Rowley. In order to generate recommendations for future e-government projects, the application of stakeholder theories in two e-government projects with stakeholder involvement will be reviewed. It is also important to work out how stakeholder groups can be actively involved in the developmental processes in concrete e-government projects by using Web 2.0 possibilities. The role of Web 2.0 applications as an additional channel of communication and participation tool will be presented and evaluated.
The result is a guide, which supports successful participation of stakeholders in projects, by analyzing the process for stakeholder identification, stakeholder grouping and prioritization and showing instructions and benefits for using Web 2.0.
This doctoral thesis concerns the theoretical basis, development and validation of a multipart instrument to provide students of educational sciences with some feedback about their competence-development (instrument KIPBI) and report to their experiences in practical training (instrument EIPRA). It thus supports the reflection capability of the student teachers. Both instruments are part of an online self-assessment (Tour 3-RLP), which is similar to the Career-Counselling for Teachers (CCT, see cct-germany.de) but unlike this, does not focus on ability but on competence-development. The instruments serve to promote the professional development of student teachers. This is a goal of the reformed concept of teacher training in Rhineland-Palatinate, the so-called KMK-standards for teacher training and education, the Rhineland-Palatinate "Framework School Quality" as well as of handouts and manuals for the implementation of in-depth practical training in teacher education. The first part of this dissertation describes the theoretical framework for the development of instruments for the "CCT-Tour 3-RLP" starting with the issue of professionalization in teacher profession. Historical dimensions and their associated approaches to teacher education research are manifold. They range from the aspect of "teacher personality" to the implementation of teaching-standards and standards for teacher education and output orientation. While within the 60s and 70s the personality approach was pivotal in teacher education research, nowadays expertise-development and models of skills-development are discussed as central issues. Therefore, the theory section describes the influence of previous research-paradigms and their semantic content upon the current trend. As one part of the analysis the construct of "teacher self-efficacy" will be explained, along topological and typological models of competence-development.
Furthermore the practical elements of teacher education and their contribution to the professionalization of future teachers are presented. Professional reflection is assumed to be a basis for developing expertise. Therefore it is necessary to investigate how theoretical knowledge can be "transferred" to practical performance. A unifying theory connecting the integration hypothesis (assuming that knowledge is directly transferable into practice) with the differentiation hypothesis (teacher skills form their own knowledgebase independent from both theoretical and practical knowledge) is provided by cognitive psychology (particularly by research on expertise). Endpoint of the theoretical discourse is the evaluation of the referred theoretical positions and their meaning for the Rhineland-Palatinate reform of teacher education and teacher training and the role that the "Tour 3-RLP" is going to play in this context.In the empirical part the methodical and methodological steps for validation of the instruments are discussed. At first the Swiss standards for teacher profession (developed by the Pädagogische Hochschule Schwyz, Central Switzerland) are presented. They can serve as a model building a competency-oriented tool that refers to competency stages.
An analysis of various methods for the setting of cut-scores aiming to develop appropriate competency levels is also a fundament for the procedures developed in the context of the empirical investigations. The results of the pilot-study and a follow-up study conducted with both described instruments (KIPBI and EIPRA) show that the instruments for competence-measurement fulfil the requirements of psychometric criteria (like a scale-structure) and tend to support student teachers´ self-reflection. Core concern of both instruments is the promotion of students, realized by the online-self-assessment by the use of appropriate feedback structures and related recommendations for action.The final chapter of this thesis includes the discussion of the results of the validation and implementation study. This final view is devoted to the question whether or not competency-modeling or standard-based approaches to professionalization are the only possible accesses to map and explain skills development. The role of reflection seems to be important for both the integral and the differential approach and interconnects them.
Technical products have become more than practical tools to us. Mobile phones, for example, are a constant companion in daily life. Besides purely pragmatic tasks, they fulfill psychological needs such as relatedness, stimulation, competence, popularity, or security. Their potential for the mediation of positive experience makes interactive products a rich source of pleasure. Research acknowledged this: in parallel to the hedonic/utilitarian model in consumer research, Human-Computer Interaction (HCI) researchers broadened their focus from mere task-fulfillment (i.e., the pragmatic) to a holistic view, encompassing a product's ability for need-fulfillment and positive experience (i.e., the hedonic). Accordingly, many theoretical models of User Experience (UX) acknowledge both dimensions as equally important determinants of a product's appeal: pragmatic attributes (e.g., usability) as well as hedonic attributes (e.g., beauty). In choice situations, however, people often overemphasize the pragmatic, and fail to acknowledge the hedonic. This phenomenon may be explained by justification. Due to their need for justification, people attend to the justifiability of hedonic and pragmatic attributes rather than to their impact on experience. Given that pragmatic attributes directly contribute to task-fulfillment, they are far easier to justify than hedonic attributes. People may then choose the pragmatic over the hedonic, despite a true preference for the hedonic. This can be considered a dilemma, since people choose what is easy to justify and not what they enjoy the most. The present thesis presents a systematic exploration of the notion of a hedonic dilemma in the context of interactive products.
A first set of four studies explored the assumed phenomenon. Study 1 (N = 422) revealed a reluctance to pay for a hedonic attribute compared to a pragmatic attribute. Study 2 (N = 134) demonstrated that people (secretly) prefer a more hedonic product, but justify their choice by spurious pragmatic advantages. Study 3 (N = 118) confronted participants with a trade-off between hedonic and pragmatic quality. Even though the prospect of receiving a hedonic product was related to more positive affect, participants predominantly chose the pragmatic, especially those with a high need for justification. This correlation between product choice and perceived need for justification lent further support to the notion that justification lies at the heart of the dilemma. Study 4 (N = 125) explored affective consequences and justifications provided for hedonic and pragmatic choice. Data on positive affect suggested a true preference for the hedonic - even among those who chose the pragmatic product.
A second set of three studies tested different ways to reduce the dilemma by manipulating justification. Manipulations referred to the justifiability of attributes as well as the general need for justification. Study 5 (N = 129) enhanced the respective justifiability of hedonic and pragmatic choice by ambiguous product information, which could be interpreted according to latent preferences. As expected, enhanced justifiability led to an increase in hedonic but not in pragmatic choice. Study 6 (N = 178) manipulated the justifiability of hedonic choice through product information provided by a "test report", which suggested hedonic attributes as legitimate. Again, hedonic choice increased with increased justifiability. Study 7 (N = 133) reduced the general need for justification by framing a purchase as gratification. A significant positive effect of the gratification frame on purchase rates occurred for a hedonic but not for a pragmatic product.
Altogether, the present studies revealed a desire for hedonic attributes, even in interactive products, which often are still understood as purely pragmatic "tools". But precisely because of this predominance of pragmatic quality, people may hesitate to give in to their desire for hedonic quality in interactive products - at least, as long as they feel a need for justification. The present findings provide an enhanced understanding of the complex consequences of hedonic and pragmatic attributes, and indicate a general necessity to expand the scope of User Experience research to the moment of product choice. Limitations of the present studies, implications for future research as well as practical implications for design and marketing are discussed.
Die wesentliche Zielsetzung der Bachelor-Arbeit war es, entlang der Anforderungen an DMS/WMS aus dem DOMEA-Konzept und aus dem Kommunalen Gebietsrechenzentrum Koblenz (KGRZ) verschiedene Systeme zu evaluieren. Weiteres Ziel war es, ein System, das die Anforderungen am besten erfüllt, zu identifizieren. Entlang der Evaluation wurde exemplarisch der Workflow des KGRZ untersucht, bewertet und ggf. angepasst. Des Weiteren wurde auf die Frage eingegangen, ob ein einheitliches System im Rahmen des Föderalismus nicht nur in Koblenz sondern auch Rheinland-Pfalz weit eingesetzt werden kann, oder ob ämterspezifische Lösungen vorteilhafter sind.
Audiences' movie evaluations have often been explored as effects of experiencing movies. However, little attention has been paid to the evaluative process itself and its determinants before, during, and after movie exposure. Moreover, until recently, research on the subjective assessment of specific film features (e.g., story, photography) has played a less important role. Adding to this research, this dissertation introduces the idea of subjective movie evaluation criteria (SMEC) and describes the scale construction for their measurement and its validation process. Drawing on social cognition theories, SMEC can be defined as standards that viewers use for assessing the features of films and conceptualized as mental representations of - or attitudes towards - specific movie features guiding cognitive and affective information processing of movies and corresponding evaluative responses. Studies were conducted in five phases to develop and validate scales for measuring and examining the structure of SMEC. In Phase I, open-ended data were categorized and content validated via a modified structure formation technique and items were developed. Subsequently in Phase II, participants completed an online questionnaire including revised and pilot-tested items. Exploratory factor analyses were iteratively applied to explore the latent structure and to select items. The resulting 8-factor model was cross-validated with different samples in Phase III applying confirmatory factor analyses which yielded good fit indices, thereby supporting structural validity. In Phase IV, latent state"trait analyses were carried out to examine the reliability, occasion specificity, common consistency, and method specificity of the eight dimensions. All factors - Story Verisimilitude, Story Innovation, Cinematography, Special Effects, Recommendation, Innocuousness, Light-heartedness, and Cognitive Stimulation - are reliable and are largely determined by stable individual differences, albeit some of them also show substantial systematic, but unstable effects due to the situation or interaction. These results provide evidence for the substantive validity of the SMEC scales. Finally, in Phase V the nomological network of SMEC was explored (external validity by examining correlations with related constructs like film genre preferences and personality traits). Taken together, whereas the SMEC concept - compatible with contemporary social cognition theories - provides a framework to theorize and address research questions about the role of movie evaluation criteria and evaluative processes, the SMEC scales are the proper tool for investigating the role of these criteria and the processes they are involved in.
Augmented Reality bedeutet eine reale Umgebung mit, meistens grafischen, virtuellen Inhalten zu erweitern. Oft sind dabei die virtuellen Inhalte der Szene jedoch nur ein Overlay und interagieren nicht mit den realen Bestandteilen der Szene. Daraus ergibt sich ein Authentizitätsproblem für Augmented Reatliy Anwendungen. Diese Arbeit betrachtet Augmented Reality in einer speziellen Umgebung, mit deren Hilfe eine authentischere Darstellung möglich ist. Ziel dieserArbeitwar die Erstellung eines Systems, das Zeichnungen durch Techniken der Augmented Reality mit virtuellen Inhalten erweitert. Durch das Anlegen einer Repräsentation soll es der Anwendung dabei möglich sein die virtuellen Szeneelementemit der Zeichnung interagieren zu lassen. Dazu wurden verschiedene Methoden aus den Bereichen des Pose Tracking und der Sketch Recognition disktutiert und für die Implementierung in einem prototypischen System ausgewählt. Als Zielhardware fungiert ein Android Smartphone. Kontext der Zeichnungen ist eine Dungeon Karte, wie sie in Rollenspielen vorkommt. Die virtuellen Inhalte nehmen dabei die Form von Bewohnern des Dungeons an, welche von einer Agentensimulation verwaltet werden. Die Agentensimulation ist Gegenstand einer eigenen Diplomarbeit [18]. Für das Pose Tracking wurde ARToolkitPlus eingesetzt, ein optisches Tracking System, das auf Basis von Markern arbeitet. Die Sketch Recognition ist dafür zuständig die Inhalte der Zeichnung zu erkennen und zu interpretieren. Dafür wurde ein eigener Ansatz implementiert der Techniken aus verschiedenen Sketch Recognition Systemen kombiniert. Die Evaluation konzentriert sich auf die technischen Aspekte des Systems, die für eine authentische Erweiterung der Zeichnung mit virtuellen Inhalten wichtig sind.
Replikation einer Multi-Agenten-Simulationsumgebung zur Überprüfung auf Integrität und Konsistenz
(2012)
In dieser Master -Arbeit möchte ich zunächst eine Simulation vorstellen, mit der das Verhalten von Agenten untersucht wird, die in einer generierten Welt versuchen zu über leben und dazu einige Handlungsmöglichkeiten zur Auswahl haben. Anschließend werde ich kurz die theoretischen Aspekte beleuchten, welche hier zu Grunde liegen. Der Hauptteil meiner Arbeit ist meine Replikation einer Simulation, die von Andreas König im Jahr 2000 in Java angefertigt worden ist [Kö2000] . Ich werde hier seine Arbeit in stark verkürzter Form darstellen und anschließend auf meine eigene Entwicklung eingehen.
Im Schlussteil der Arbeit werde ich die Ergebnisse meiner Simulation mit denen von Andreas König vergleichen und die verwendeten Werkzeuge (Java und NetLogo) besprechen. Zum Abschluss werde ich in einem Fazit mein Vorhaben kurz zusammenfassen und berichten was sich umsetzen ließ, was nicht funktioniert hat und warum.
Opinion Mining : Using Twitter as a source of opinion for the prediction of stock market prices
(2012)
Neben den theoretischen Grundkonzepten der automatisierten Fließtextanalyse, die das Fundament dieser Arbeit bilden, soll ein Überblick in den derzeitigen Forschungsstand bei der Analyse von Twitter-Nachrichten gegeben werden. Hierzu werden verschiedene Forschungsergebnisse der, derzeit verfügbaren wissenschaftlichen Literatur erläutert, miteinander verglichen und kritisch hinterfragt. Deren Ergebnisse und Vorgehensweisen sollen in unsere eigene Forschung mit eingehen, soweit sie sinnvoll erscheinen. Ziel ist es hierbei, den derzeitigen Forschungsstand möglichst gut zu nutzen.
Ein weiteres Ziel ist es, dem Leser einen Überblick über verschiedene maschinelle Datenanalysemethoden zur Erkennung von Meinungen zu geben. Dies ist notwendig, um die Bedeutung der im späteren Verlauf der Arbeit eingesetzten Analysemethoden in ihrem wissenschaftlichen Kontext besser verstehen zu können. Da diese Methoden auf verschiedene Arten durchgeführt werden können, werden verschiedene Analysemethoden vorgestellt und miteinander verglichen. Hierdurch soll die Machbarkeit der folgenden Meinungsauswertung bewiesen werden. Um eine hinreichende Genauigkeit bei der folgenden Untersuchung zu gewährleisten, wird auf ein bereits bestehendes und evaluiertes Framework zurückgegriffen. Dieses ist als API 1 verfügbar und wird daher zusätzlich behandelt. Der Kern Inhalt dieser Arbeit wird sich der Analyse von Twitternachrichten mit den Methoden des Opinion Mining widmen.
Es soll untersucht werden, ob sich Korrelationen zwischen der Meinungsausprägung von Twitternachrichten und dem Börsenkurs eines Unternehmens finden lassen. Es soll dabei die Stimmungslage der Firma Google Inc. über einen Zeitraum von einem Monat untersucht und die dadurch gefunden Erkenntnisse mit dem Börsenkurs des Unternehmens verglichen werden. Ziel ist es, die Erkenntnisse von (Sprenger & Welpe, 2010) und (Taytal & Komaragiri, 2009) auf diesem Gebiet zu überprüfen und weitere Fragestellungen zu beantworten.
The natural and the artificial environment of mankind is of enormous complexity, and our means of understanding this complex environment are restricted unless we make use of simplified (but not oversimplified) dynamical models with the help of which we can explicate and communicate what we have understood in order to discuss among ourselves how to re-shape reality according to what our simulation models make us believe to be possible. Being both a science and an art, modelling and simulation isrnstill one of the core tools of extended thought experiments, and its use is still spreading into new application areas, particularly as the increasing availability of massive computational resources allows for simulating more and more complex target systems.
In the early summer of 2012, the 26th European Conference on Modelling andrnSimulation (ECMS) once again brings together the best experts and scientists in the field to present their ideas and research, and to discuss new challenges and directions for the field.
The 2012 edition of ECMS includes three new tracks, namely Simulation-BasedrnBusiness Research, Policy Modelling and Social Dynamics and Collective Behaviour, and extended the classical Finance and Economics track with Social Science. It attracted more than 110 papers, 125 participants from 21 countries and backgrounds ranging from electrical engineering to sociology.
This book was inspired by the event, and it was prepared to compile the most recent concepts, advances, challenges and ideas associated with modelling and computer simulation. It contains all papers carefully selected from the large number of submissions by the programme committee for presentation during the conference and is organised according to the still growing number tracks which shaped the event. The book is complemented by two invited pieces from other experts that discussed an emerging approach to modelling and a specialised application. rnrnWe hope these proceedings will serve as a reference to researchers and practitioners in the ever growing field as well as an inspiration to newcomers to the area of modelling and computer simulation. The editors are honoured and proud to present you with this carefully compiled selection of topics and publications in the field.
A trending topic in Semantic Web research deals with the processing of queries over Linked Open Data (LOD). As has been shown in literature, the loose nature of the "web of data" and data sources within can be accounted for by employing federated query processing strategies. This approach, however, is all the more dependent on both up-to-date statistical summaries (data statistics) of the sources in use and accurate and precise estimation of cardinalities and selectivities. In general, federated data sources are to be seen as black-boxes w.r.t. data statistics, as no interchange of such information can be expected. Because of this, it is possible for individual data statistics to become obsolete, if the corresponding source is subjected to data changes cumulating over time. In this thesis an adaptive system is being proposed, that complements a given RDF-based query federator. Through observation and analysis of the error of the cardinality estimation of incoming queries, it tries to infer the obsolescence of individual data statistics, triggering updates of data statistics found to be obsolete. An evaluation of the system shows, that the approach to this solution is plausible. Yet, in practice no satisfying results could be acquired, that would prove a true practicality. Still, parts of the system proposed may be re-used for related tasks that could be more promising.
Wie kaum ein anderes Phänomen hat die Frage nach der Legalität der Selbsttötung, die in ihrer letzten Konsequenz immer eine Frage nach dem Selbstbestimmungsrecht des Menschen ist, Gesellschaften gespalten. Stellte die Selbsttötung in der Antike ein durchaus tolerierbares Mittel dar, um einem qualvollen Leben zu entfliehen, so wurde sie im Mittelalter unter dem Einfluss des Christentums fast durchgängig verboten. Für die Aufklärung, die im allgemeinen Verständnis als eine Epoche gilt, in der sich der Grundgedanke durchsetzt, die Vernunft als allgemeingültigen Wertemaßstab für alles menschliche Handeln heranzuziehen und die Bevormundung durch Autoritäten zu hinterfragen, stellt die Bewertung der Selbsttötung eine besondere "Provokation" dar. Die über einen langen Zeitraum sowohl von kirchlichen als auch weltlichen Autoritäten gleichermaßen propagierte Auffassung von der Unzulässigkeit des aus eigener Hand herbeigeführten Todes konnte unter Perspektive eines Individuationsprozesses im Zeitalter der Aufklärung nicht weiterhin unhinterfragt hingenommen werden.
Während die deutschen Philosophen und Theologen der Aufklärung weitestgehend in traditionellen Bewertungsmustern verhaftet blieben und die Tat je nach Ausrichtung als ein Vergehen wider Gott, die Gemeinschaft oder das eigene Ich verstanden, machten sich Veränderungen in der öffentlichen Wahrnehmung und Bewertung der Selbsttötung vor allem in der Strafrechtsdebatte und im medizinisch-anthropologischen Diskurs bemerkbar. Hier stand nun nicht mehr die Bewertung der Tat im Vordergrund, sondern die Frage nach deren Ursachen. Blieb die Wahrnehmung der Selbsttötung als ein Akt entgegen der Vernunft zunächst zu weiten Teilen bestehen, setzte sich jedoch zunehmend das Verständnis durch, die Selbsttötung als das tödliche Ende einer Krankheit zu begreifen. Eine derartige Bewertung führte beispielsweise dazu, dass die gängige und sowohl im weltlichen als auch im kanonischen Recht verankerte Praxis der Bestrafung der Selbstmörder immer häufiger ausgesetzt wurde.
Gleichzeitig vollzieht sich im Geiste der Aufklärung ein deutlicher Wandel im literarischen Diskurs. Allen voran Johann Christoph Gottsched, dessen Trauerspiel Der Sterbende Cato das Analysekapitel der Arbeit einleitet, wollte ausdrücklich das Trauerspiel in den Dienst der rationalen Philosophie gestellt wissen. Aufbauend auf einem Verständnis, dass Literatur sich als Resonanzraum außerliterarischer Diskurse verstehen lässt und zugleich selbst diskursschaffend ist, stellt sich aus der Zusammenschau der ausgeführten Entwicklungslinien die Frage, wie das Motiv der Selbsttötung, das seit Sophokles als ein erlaubtes und taugliches Inventar des Trauerspiels galt und in der barocken Tragödie vielfach als eine nachahmungs- und bewunderungswürdige Tat dramatisiert wurde, von den Literaten des Aufklärungsjahrhunderts gestaltet wurde. Die Relevanz der Studie ergibt sich somit aus einem Zusammenspiel von Untersuchungszeitraum, Gattung und Selbsttötung als solcher. Die Dissertation leistet einen Beitrag zur Geschichte der Selbsttötung unter Perspektive einer literaturwissenschaftlichen Motivanalyse und legt hierbei ein theoretisch expliziertes Verständnis des Motivbegriffs vor, innerhalb dessen das Motiv nicht ausschließlich als ein handlungsführendes und strukturbildendes Element verstanden wird, sondern darüber hinaus strukturell durch die Gattung bestimmt in den jeweiligen Kontextualisierungen Auskunft über kollektive Denkformen und kommunikative Konventionen gibt. Dieses Konzept ermöglicht es, die Entwicklung des Motivs im literarischen Diskurs anhand der dominierenden Wahrnehmungsparadigmen zu beschreiben. Hierbei werden drei zentrale "Motivgestalten" präsentiert, in denen das Motiv in ähnlichen oder verwandten Implikationen auftritt. Die besprochenen Texte reichen von kanonisierten Klassikern wie Schillers Die Räuber bis hin zu jenen, die nur am Rande der literaturwissenschaftlichen Betrachtung eine Rolle spielen so z.B. Die neue Arria von Freidrich Maximilian Klinger.
Forschungsergebnisse zum Männerchorwesen Deutschlands im 19. Jahrhundert belegen dessen gesellschaftliche und politische Relevanz. Das so genannte Sängerwesen leistete demnach einen wesentlichen Beitrag zur Nationsbildung in Deutschland, da die Sänger durch ihren Gesang sowie durch ihre Aktivitäten im Verein und in der Öffentlichkeit zur inneren Einigung der Bevölkerung beitrugen und somit halfen, eine einheitliche Nation zu formen. Im Gegensatz dazu gab es bislang kaum Erkenntnisse über die gesellschaftlichen und politischen Hintergründe des Männerchorwesens der Pfalz im gleichen Zeitraum. Um diese Lücke zu schließen, wurde mit der vorliegenden Arbeit die Geschichte des Männerchorwesens der Pfalz erforscht, insbesondere hinsichtlich seiner Bedeutung für die Nationsbildung Deutschlands. Der Untersuchungszeitraum erstreckt sich von 1816, dem Jahr, in dem die Pfalz zum bayerischen Staatsgebiet wurde, bis zur Gründung des Deutschen Reiches im Jahre 1871.
Zunächst wird die Entwicklung des pfälzischen Sängerwesens bezüglich der Zahl der gegründeten Vereinen in den einzelnen Jahren und Orten sowie bezüglich des Feierns lokaler und regionaler Sängerfeste im Überblick und im Vergleich zum Musikvereinswesen der Pfalz im gleichen Zeitraum dargestellt. Dieser Betrachtung des pfälzischen Männerchorwesens als Ganzem folgt die Untersuchung seiner Einzelteile, der Personen und Ereignisse innerhalb einzelner Sängervereine und innerhalb bestimmter Zeitabschnitte, vor dem Hintergrund der jeweiligen politischen und gesellschaftlichen Situation. Bedeutend sind in diesem Zusammenhang vor allem die Auswirkungen der politisch-gesellschaftlichen Großereignisse Hambacher Fest von 1832 sowie Revolution von 1848/49 auf die laienmusikalischen Vereinskulturen.
Schließlich werden die einzelnen Phänomene und die Gesamtentwicklung aufeineander bezogen. Der Anhang der Forschungsarbeit beinhaltet, neben Auszügen aus den Protokollbüchern des "Cäcilienverein-Liedertafel Dürkheim" sowie Plakaten von pfälzischen Musik- und Sängerfesten der 1840er Jahre, Übersichtstabellen mit Informationen zu den Pfälzischen Musikfesten des 19. Jahrhunderts sowie zu den im Untersuchungszeitraum gegründeten Sängervereinen, außerdem Kartenmaterial zur räumlichen Verbreitung der Vereine sowie Notenmaterial zum freimaurerischen "Weihelied" des Kaiserslauterer Seminarlehrers Philipp Walter.
Magnetic resonance (MR) tomography is an imaging method, that is used to expose the structure and function of tissues and organs in the human body for medical diagnosis. Diffusion weighted (DW) imaging is a specific MR imaging technique, which enables us to gain insight into the connectivity of white matter pathways noninvasively and in vivo. It allows for making predictions about the structure and integrity of those connections. In clinical routine this modality finds application in the planning phase of neurosurgical operations, such as in tumor resections. This is especially helpful if the lesion is deeply seated in a functionally important area, where the risk of damage is given. This work reviews the concepts of MR imaging and DW imaging. Generally, at the current resolution of diffusion weighted data, single white matter axons cannot be resolved. The captured signal rather describes whole fiber bundles. Beside this, it often appears that different complex fiber configurations occur in a single voxel, such as crossings, splittings and fannings. For this reason, the main goal is to assist tractography algorithms who are often confound in such complex regions. Tractography is a method which uses local information to reconstruct global connectivities, i.e. fiber tracts. In the course of this thesis, existing reconstruction methods such as diffusion tensor imaging (DTI) and q-ball imaging (QBI) are evaluated on synthetic generated data and real human brain data, whereas the amount of valuable information provided by the individual reconstruction mehods and their corresponding limitations are investigated. The output of QBI is the orientation distribution function (ODF), where the local maxima coincides with the underlying fiber architecture. We determine those local maxima. Furthermore, we propose a new voxel-based classification scheme conducted on diffusion tensor metrics. The main contribution of this work is the combination of voxel-based classification, local maxima from the ODF and global information from a voxel- neighborhood, which leads to the development of a global classifier. This classifier validates the detected ODF maxima and enhances them with neighborhood information. Hence, specific asymmetric fibrous architectures can be determined. The outcome of the global classifier are potential tracking directions. Subsequently, a fiber tractography algorithm is designed that integrates along the potential tracking directions and is able to reproduce splitting fiber tracts.
Computers assist humans in many every-day situations. Their advancing miniaturisation broadens their fields of use and leads to an even higher significance and spread throughout society. Already, these small and powerful machines are wide-spread in every-day objects and the spread increases still as the mobility-aspect grows in importance. From laptops, smartphones and tables to systems worn on the body (wearable computing) or even inside the body as cyber-implants, these systems help humans actively and context-sensitively in the accomplishment of their every-day business.
A part of the wearable-computing-domain is taken up by the development of Head-mounted displays (HMD). These helmets or goggles feature one or more displays enabling their users to see computer-rendered images or images of their environment enriched with computer-generated information. At the moment, most of this HMD feature LC-Displays, but newer systems start appearing that allow the projection of the image onto the user's retina. Newest break-throughs in the field of study already produced contact lenses with an integrated display. The data shown by a HMD is compiled using a multitude of sensors, like a Head-Tracker or a GPS. Increasing computational performance and miniaturisation lead to a wide spread of HMD in a lot of fields.rnThe multiple scenarios in which a HMD can be used to help improve human-perception and -interaction led the "Institut für Integrierte Naturwissenschaften" of the University of Koblenz-Landau to come up with a HMD on the basis of Apple's iOS-devices featuring Retina Displays. The high pixel density of these displays combined with condensor lenses into a HMD offer a highly immersive environment for stereoscopic imagery, while other systems only display a relatively small image projected a few feet away of the user. Furthermore, the iPhone/ iPod Touch and iPad exhibit a lot of potential given by their variety of offered sensors and computational power. While producing a similarly feature-rich HMD is very costy, using simple iPod Touches 4th Gen as the basis of a HMD results in a very inexpensive solution with a high potential. The increasing popularity and spread of Apple devices would reduce the costs even more, as users of the HMD could simply integrate their device into the system. A software designed with the specific intent to support a large variety of Apple iOS-devices that could easily be extended to support newer devices, would allow for a universal use of such a HMD-solution as the new device could simply replace an old device.rnrnThe focus of this thesis is the conception and development of an application designed for Apple's iOS 5 operating system that will be used in a HMD evolving around the use of Apple iOS-devices featuring Retina Displays. The Rollercoaster2000-project depicting a ride in a virtual rollercoaster will be used as the application's core. A server will syncronize the display of clients conntected to it which are combined to form a HMD. Furthermore the gyroscope of the iOS-devices combined into a HMD will be used to track the wearer's head-movements. Another feature will be the use of the devices cameras as a mean of orientation while wearing the HMD.
As a first step in the realization of a software meeting the set specifications is the introduction of the Objective-C programming languages used to develop iOS-Applications. In conjunction with the compiler and runtime environment, Objective-C makes up the base of the second step, the introduction of the iOS-SDK. Aimed with this iOS-app-development-knowledge, the last part of the thesis consists of the ascertainment of requirements and development of a software complying to the goals of a software written specifically for the used in a HMD.
Procedural content generation, the generation of video game content using pseudo-random algorithms, is a field of increasing business and academic interest due to its suitability for reducing development time and cost as well as the possibility of creating interesting, unique game spaces. Although many contemporary games feature procedurally generated content, the author perceived a lack of games using this approach to create realistic outer-space game environments, and the feasibility of employing procedural content generations in such a game was examined. Using current scientific models, a real-time astronomical simulation was developed in Python which generates star and planets object in a fictional galaxy procedurally to serve as the game space of a simple 2D space exploration game where the player has to search for intelligent life.